miércoles, 19 de noviembre de 2025

INTELIGENCIA ARTIFICIAL Y DERECHO PENAL: LIMITES PARA UNA INTERACCIÓN CONSTITUCIONAL

 

“Inteligencia artificial y derecho penal: límites para una interacción constitucional”[1]

 

por Marcelo A. Riquert[2]

 

- I -

 

            Suelo decir que, para los juristas, abordar las relaciones entre las nuevas tecnologías y el derecho penal es estresante, básicamente porque las novedades se suceden con tal velocidad que no se ha terminado de identificar un grupo de problemas y cuestiones, pensando, discutiendo y ensayando las posibles respuestas, cuando de inmediato aparecen otros avances que modifican o hacen surgir una nueva fenomenología que provoca que, antes de cerrar aquellos, tengamos que estar haciendo frente a estos.

            Los descubrimientos que cambian en modo radical la vida de la humanidad se han acelerado dramáticamente. El hombre primitivo comenzó a moldear utensilios en arcilla y para que llegara la rueda pasaron alrededor de 23.000 años. Mucho más acá en el tiempo, el VHS, el DVD o el Blu-Ray como formatos que cambiaron los modos de acceder a películas o música cayeron en obsolescencia en poco más de una década. La red social Facebook, que aparece en 2004, hoy es caracterizada como algo que usan “los viejos”. Los avances en las interfaces cerebro-computadora llevan a plantear la existencia de neuroderechos y sus posibles usos fraudulentos en tiempos que no están tan lejos a preguntarse por la necesidad de tipificar neurodelitos[3].

            Es una relación estresante porque, claro, estamos condenados a ir por detrás de la novedad y, ante la necesidad de considerarla, se abre un ineludible interrogante: ¿se trata sólo de adecuar el derecho a los cambios, de validarlos, o se trata de recordar que hay límites previos que deben ser respetados?. El título elegido actúa como un claro “spoiler” de la postura personal: la Constitución impone límites. Retomo. Si nos remitimos a novedades normativas trascendentes en apenas el último año y medio puede verse que, a nivel mundial, en diciembre de 2024 se ha abierto a la firma el primer Convenio sobre Cibercriminalidad de Naciones Unidas, fruto de una larguísima discusión, con sus 68 artículos dedicados a cuestiones fondales, procesales y de cooperación; en el nivel regional, también en 2024 aparece el primer Reglamento/Ley sobre Inteligencia Artificial europeo; en el plano local, a fines de 2023 se consagró la llamada “Ley Olimpia”[4], que vino a modificar la Ley 26485 de “Protección integral de la Mujer”[5], incorporando todo lo relativo a la violencia de género “digital”[6].

 

- II -

 

            El tema en abordaje son los posibles límites a las intersecciones entre la IA y el derecho penal. En la ocasión, influido por la crítica mirada que proporciona la reconocida académica australiana Kate Crawford en su obra “Atlas de Inteligencia Artificial. Poder, política y costos planetarios”[7], donde hace hincapié en dirigir la mirada no sólo hacia la usual presentación de la IA como algo etéreo, inmaterial, que está en “la nube”, sino hacia la habitualmente ignorada u omitida dimensión física de lo que, dice Crawford, no es “artificial” ni “inteligente”, sino corpóreo, material, hecho de recursos naturales, combustible, mano de obra, infraestructuras, logística, historias y clasificaciones. La nombrada enfatiza que la IA como la conocemos depende por completo de un vasto grupo de estructuras políticas y sociales, y que debido al capital que se necesita para construirla a gran escala y los modos de ver que optimiza, los sistemas de IA son diseñados para servir a intereses dominantes ya existentes[8].

            Breve digresión: esto se da en un momento en que tales intereses son por los que, conforme refiere Byung-Chul Han, se ha verificado el pasaje del capitalismo industrial al capitalismo de la información. En obra también reciente el filósofo surcoreano señala que la democracia occidental tal como la conocemos está pasando a transformarse en una verdadera “infocracia” y, tarea para repensar por los penalistas, aquellas explicaciones sobre el poder punitivo de Foucault, cuando nos describió el “régimen de la disciplina”[9], deben volver a procesarse cuando ya no se trata de la explotación de cuerpos y energía, cuando el factor de poder ya no es la posesión de los medios de producción, sino que se trata de la explotación de la información y datos, es el acceso a estos el factor de poder y, por eso, es un “régimen de la información”. Las personas no son más ganado laboral sino datos y ganado consumidor. Por decirlo sintéticamente, la cárcel panóptica es reemplazada por el Smartphone, por el teléfono inteligente, como instrumento de vigilancia y sometimiento[10].

            Por supuesto, este escenario necesita una explicación que excede el marco y tiempo para esta presentación. Retomando a Crawford, sintetiza la postura diciendo que “…la IA es un certificado de poder”, llamándonos la atención acerca de la IA como una “industria de extracción”, a que no se pierda de vista que la creación de sistemas de IA contemporáneos depende de la explotación de los recursos energéticos y minerales del planeta, de la mano de obra barata y los datos a escala[11]. No es una fuerza espectral o computación incorpórea. No tiene nada de abstracto: es una idea, una infraestructura, una industria, una forma de ejercer poder y una manera de ver. Es la manifestación, nos dice Crawford, de un capital muy organizado, respaldado por vastos sistemas de extracción y logística, con cadenas de suministros que abarcan todo el planeta, al que, en el camino, están alterando significativamente[12].

            La columna vertebral de la IA son los minerales, en particular, la minería del litio[13] y otros dieciochos minerales de “tierras raras” (como los poco conocidos lantano, cerio, praseodimio, samario, europio o gadolinio, entre otros). Para entender la intensidad de la explotación baste pensar que un celular lleva unos 8,5 gramos de litio, mientras que la batería de un Tesla S requiere 63 kilos del mismo material. Si se agrega el masivo consumo de energía eléctrica y que cuando se hace referencia a la computación avanzada se omite su impacto en la huella de carbono, los combustibles fósiles o la contaminación, se explica la construcción del mito de que todo se trata de “la nube”, metáfora que sugiere algo que flota y es parte de una industria natural y verde. Se ofrece una mítica imagen pública de compromiso ambiental (sustentabilidad y algoritmos “verdes”), mientras se requieren colosales cantidades de energía para hacer funcionar la infraestructura computacional de los servidores de las grandes compañías como Amazon o Microsoft[14]. En síntesis, la IA es una “megamáquina”, un conjunto de enfoques tecnológicos que depende de infraestructuras industriales, cadenas de suministros y mano de obra extendidas por todo el mundo, con un alto costo, pero que se mantienen en un segundo plano[15]. Un modo de bajar esos costos es en la mano de obra: aunque a los empleados se los llame “asociados”, el trato que reciben no es de tales y su labor se registra y monitorea chequeando hasta su estado emocional para maximizar la eficiencia. Enseguida volveré sobre las apps para monitorear emociones en distintos contextos.

 

- III -

 

            La ideología de “extracción de datos” en el campo de la IA se ha llevado a una escala gigantesca ya que los datos son la base de su éxito y rentabilidad. Se va pasando de la metáfora de los datos como “recursos naturales” esperando a ser descubiertos, de datos sensibles de personas a “bienes comunes” respecto de los que no interesa la privacidad,  a su consideración como “capital” acumulable con el que se obtienen ganancias[16] (el mencionado capitalismo de la información). En cómo y qué se hace con los datos en las apps de IA hay varias intersecciones de interés penal.

            En 2021, en Europa se llamó la atención sobre el particular señalando que la IA ofrece posibilidades y riesgos extraordinarios, que no es un fin en sí misma sino un instrumento al servicio de las personas y que el objetivo debe ser aumentar el bienestar, capacidad y seguridad humanos[17]. En lo específico, advertía que su uso en el ámbito del DP se basa en la promesa no siempre cumplida de reducir la criminalidad. Por esa época, al sistematizar los problemas fondales y procesales en la relación entre la IA y el DP, identifiqué cuatro grandes núcleos: tecnología de predicción criminal (por ejemplo, vigilancia policial predictiva y herramientas de reconocimiento facial); agentes autónomos o artificiales (con los inconvenientes para determinar cuestiones de participación criminal cuando, por caso, el sistema de conducción autónoma de un automotor funciona mal y se provoca un daño); gestión judicial (en particular, el apoyo a decisiones sobre la base de valoración de riesgos); y, producto de la pandemia sanitaria del COVID-19, el incremento de la cibervigilancia y el control social[18].

            Al comienzo mencioné como novedad normativa que el Parlamento Europeo –tras profusa discusión e interconsulta- ha aprobado en 2024 la propuesta de “Reglamento de Inteligencia Artificial”, una verdadera “Ley de Inteligencia Artificial” (LIA), pionera en el mundo[19]. Es decir, se ha tomado el correcto camino de la regulación y se lo ha hecho con un enfoque basado en el riesgo, que define en cuatro clases de uso de los sistemas de IA: 1) aquellos que producen un riesgo inaceptable; 2) un alto riesgo; 3) un riesgo limitado y, finalmente, 4) uno mínimo o sin riesgo. En el último caso solo se fomentan códigos de conducta o ética para que las empresas adhieran; en el segundo y tercero deben implementarse controles de distinta intensidad que incluyen tareas de prueba, documentación, transparencia y notificación. En el primer caso, riesgo inaceptable o intolerable respecto de los derechos fundamentales (aquí hablaríamos de derechos reconocidos y garantizados constitucionalmente), se ha dispuesto directamente la prohibición (art. 5), vigente desde febrero de 2025. Así, por ejemplo, en el inc. e) de la norma citada, se prohíbe “la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión”. Es importante resaltar las prohibiciones porque, se verá, hay una serie de novedades locales concretadas por vía de decretos o resoluciones ministeriales en las que se habilita la realización de aquello que en Europa se ha prohibido.

            Es reconocido fuera de discusión los posibles conjuntos de datos sesgados y algoritmos injustos, así como que una de las explicaciones para que ello ocurra son las políticas de clasificación, una práctica central de la IA y que es a través de la que se determina cómo se reconoce y produce la “inteligencia” de las máquinas que pueblan desde los laboratorios hasta la industria tecnológica. La extracción, medición, etiquetado y ordenamiento de datos con que los sistemas se entrenan son lo que generan resultados discriminatorios dentro de categorías como la raza, la clase, el género, la discapacidad o la edad[20]. Adscribir un dato a una categoría es una manera de cosificar el fenómeno sacándolo de una masa indiferenciada. Una jerarquizaba base de imágenes como “ImageNet” las tiene organizadas en 21841 categorías, en las que todo es simplificado, achatado y etiquetado para lo que, lejos de la pretensión de objetividad, lo que hay es un ejercicio profundamente ideológico que privilegia y puebla algunas categorías en desmedro u omisión de otras posibles[21].

            No puede soslayarse que algunos métodos de aprendizaje automático incursionan en distinciones vinculadas con la sexualidad o la criminalidad que, claro, se apoyan sobre categorizaciones profundamente relacionales y determinadas socialmente, que son contextuales y cambiantes según el momento y lugar. Por lo tanto, es evidente no son fijas ni traspasables a cualquier sitio en cualquier oportunidad. Y entonces los sistemas de aprendizaje automático construyen respuestas sobre base de categorías fijas clasificando cosas que son relacionales por lo que son pasibles de críticas tanto científicas como éticas[22].

            En línea con esto, valga retomar la referida LIA europea del año 2024, que dentro de las actividades prohibidas, en el art. 5. c) prevé: “La introducción en el mercado, la puesta en servicio o la utilización de sistemas de IA con el fin de evaluar o clasificar a personas físicas o a grupos de personas durante un período determinado de tiempo atendiendo a su comportamiento social o a características personales o de su personalidad conocidas, inferidas o predichas, de forma que la puntuación ciudadana resultante provoque una o varias de las situaciones siguientes: i) un trato perjudicial o desfavorable hacia determinadas personas físicas o grupos enteros de personas en contextos sociales que no guarden relación con los contextos donde se generaron o recabaron los datos originalmente; ii) un trato perjudicial o desfavorable hacia determinadas personas físicas o grupos de personas que sea injustificado o desproporcionado con respecto a su comportamiento social o la gravedad de este;…”.

            Siendo evidente que las clasificaciones son necesarias para el entrenamiento y desarrollo de las IA, no cualquier tipo de aquellas es admisible. Y es preciso que, las herramientas que se nos ponen a disposición, sean miradas con sentido crítico. Muchos de los sistemas de predicción de emociones se apoyan en la labor que desde los años sesenta desarrolló el famoso psicólogo estadounidense Paul Ekman, quien con los años se transformó en una celebridad mediática, siendo presentado como el lector de rostros más famoso del mundo y llegó a hacerse una serie televisiva basada en su capacidad de detectar mentiras (“Lie to me”[23]). Estos sistemas se usan en aeropuertos, centros de educación y empresas de selección/contratación de empleados. Sin embargo, se olvida toda la controversia en torno a la premisa de que el estado interior emocional de alguien puede evaluarse con precisión analizando un rostro[24].

            Otra vez, lo relativo al reconocimiento de emociones mediantes sistema de IA es abordado por la autoridad europea y en la mencionada LIA de 2024 se lo limitado excluyéndolo de los ámbitos laborales y educativos. En efecto, entre las prohibiciones del art. 5, en el inc. f) se ha previsto a “…la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA para inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos, excepto cuando el sistema de IA esté destinado a ser instalado o introducido en el mercado por motivos médicos o de seguridad;…”.

            Vale la pena insistir en que con un aura de objetividad, por tratarse “solo de matemáticas”, se  esconden sesgos intencionales y no intencionales de la práctica policial en los sistemas de vigilancia predictiva (por ejemplo, Predpol, desarrollado por el Departamento de Policía de la ciudad de Los Ángeles en colaboración con la Universidad de California), que generan un bucle de retroalimentación y provocan una vigilancia más acentuada sobre grupos como migrantes, indocumentados, pobres y comunidades afroamericanas y latinas[25]. Es decir, acentúan la selectividad vigente sobre los grupos más vulnerables. Algo similar pasa con los controvertidos sistemas de apoyo a decisiones judiciales por valoración de riesgos (por ejemplo, COMPASS)[26]. Esto conecta con otra de las prohibiciones de la LIA europea, que en el art. 5, inc. d), incluye: “… la introducción en el mercado, la puesta en servicio para este fin específico o el uso de un sistema de IA para realizar evaluaciones de riesgos de personas físicas con el fin de evaluar o predecir la probabilidad de que una persona física cometa una infracción penal basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad; esta prohibición no se aplicará a los sistemas de IA utilizados para apoyar la evaluación humana de la implicación de una persona en una actividad delictiva que ya se base en hechos objetivos y verificables directamente relacionados con una actividad delictiva;…”.

 

- IV -

 

            El detalle sobre las prohibiciones europeas, reitero, es importante porque estamos viendo en nuestro país que por vía de “softlaw” (decretos y disposiciones ministeriales), sin pasar por el Congreso nacional pese a involucrar acciones que pueden comprometer derechos de raigambre constitucional, se estaría caminando en el sentido inverso al deseable (justamente, por no prohibirlas o habilitarlas sin necesarios controles que aseguren no se los afecte)[27].

            Me refiero, por ejemplo, a la Res. 428/2024 del Ministerio de Seguridad, cuyo art. 2º inc. “o”,  habilita a la policía a realizar labores preventivas en el ciberespacio respecto de cualquier delito del que se pueda obtener noticia a través de tal medio. Es decir, ciberpatrullaje con uso de fuentes abiertas (art. 3º inc. b), para todo. Y en reiteradas ocasiones he señalado que no estoy en contra de tal actividad investigativa, que considero necesaria y útil, sino que por tratarse de algo que importa escudriñar en aspectos de la vida social de los ciudadanos debe tener límites precisos para no incurrir en desvíos que, por caso, terminen coartando la libertad de expresión. En la misma resolución, el art. 3º inc. e), permite el uso del “agente revelador tecnológico” conforme los términos de la Ley 27319. Y esto también es muy delicado y mereciera mayores discusiones y precisiones porque, dejando de lado la pretensión de novedad que deriva de la inclusión “tecnológico”, no se trata de nada realmente nuevo[28] y es antigua la discusión en torno a que no es lo mismo un agente encubierto que uno revelador o provocador, y el tipo de provocación constitucionalmente admisible se vincula con distinciones acerca de la doctrina de la celada legal o el entrampamiento, que tienen una vertiente objetiva y otra subjetiva, sin que haya vuelto a ser considerada por la CSJN desde el leading case “Fiscal c/Fernández”, hace más de tres décadas (la sentencia es del 11/12/1990)[29]. Unos meses más tarde, por Res. 1253/2024 del MS, se creó la “Unidad Especial de Agentes Encubiertos” en la Dirección Nacional de normativa y relaciones con los poderes judiciales y los ministerios públicos.

            A su vez, la Res. 710/2024 de la misma autoridad ministerial, crea en su ámbito una “Unidad de Inteligencia Artificial aplicada a la Seguridad” (UIAAS), entre cuyas funciones (art. 4º) se especifican las siguientes: reconocimiento facial en tiempo real mediante cámaras de seguridad (inc. “c”; que tiene posterior correlato en la Res. 1234/2024 del MS, por la que se aprobó el “Protocolo Unificada para el Reconocimiento y Comparación Facial”); usar algoritmos para predecir futuros delitos (inc. “d”); procesar grandes volúmenes de datos para crear perfiles de sospechosos (inc. “e”); analizar redes sociales para detectar amenazas potenciales, identificar movimientos de grupos delictivos o prever disturbios (inc. “j”, cuya amplitud es perfectamente compatible con el uso del ciberpatrullaje para reprimir manifestaciones de protesta social). No es todo, este año, el mes de junio, por Dec. 383/2025 se aprobó el nuevo “Estatuto de la Policía Federal Argentina”, cuyo art. 6º inc. 8, en conexión con el antes citado inc. “e”, establece como una facultad de la PFA el registrar y calificar a las personas dedicadas habitualmente a una actividad que la policía debe reprimir; mientras que vinculado al inc. “j”, agrega la misión de hacer inteligencia criminal (arts. 5 inc. 3 y 6 inc. 2 del decreto; 5 inc. 3 del Estatuto) habilitando su acceso a bases de datos públicas y pudiendo solicitar acceso a privadas (art. 6 inc. 5 del decreto; mismo número e inciso del Estatuto).

            Es que el nuevo marco general de actuación previsto es la investigación “proactiva” de los delitos federales y complejos, la desarticulación de organizaciones criminales y la protección del Estado (arts. 1 y 5 inc. 1º del decreto; 1 del Estatuto). Es decir, enfatizando que no es necesaria la previa orden por autoridad judicial o del MPF. De allí el amplio haz de facultades habilitadas en su art. 6º, entre las que destacan (porque son merecedoras de real control y seguimiento), las siguientes:

            Inc. 2: hacer inteligencia criminal y análisis de la información;

            Inc. 3: recabar información y asegurar prueba para “luego” presentarla al MPF o jueces para facilitar el “inicio” de una investigación;

            Inc. 6: relacionarse con la comunidad, instituciones y organizaciones de la sociedad civil con el fin de prevenir delitos;

            Inc. 7: detener sin orden judicial por hasta diez horas si presume delito y la persona no acredita la identidad;

            Inc. 11: realizar, sin necesidad de autorización judicial, tareas de prevención del delito en espacios públicos digitales (redes sociales, sitios web públicos y otras fuentes abiertas), conforme pautas y principios rectores dictados para dichas actividades por la autoridad competente, respetando la protección de datos personales, libertad de expresión, intimidad y privacidad.

            Esta última, muy específica al acontecer en el ciberespacio, no puede dejar de crear preocupación si se atiende al modo diferencial en que se valoran por la autoridad pública los discursos con relevancia típica que en redes sociales día a día circulan. Las conductas comunicativas odiosas del sector oficial son ignoradas, las de origen y sentido contrapuesto pueden dar lugar a formación de causas, detenciones, etc. Sin desconocer las facultades inherentes al poder administrador para organizar cómo diseña y ejecuta su labor específica, cuando se trata de medidas que pueden afectar la calidad de “ciudadanía”, el ejercicio de los derechos constitucionales, debiera no perderse de vista la conveniencia de que discutan y legislen en sede natural para establecerles límites, que es la del Congreso.

               

- V -

 

            Cierro esta intervención postulando que, en mi modesta opinión, no albergo dudas de que debe consagrarse una regulación en materia de IA y que, en la relativo con sus intersecciones con el derecho penal, debe hacérselo sin olvido de que este interviene, con límites, después (no antes) del delito.

            La mentada resolución del Parlamento Europeo de 2021 recordaba lo que vulgarmente serían verdades de Perogrullo pero, en los tiempos que corren, es aconsejable repetir cual si fuese un mantra: debe tratarse de una regulación que le diga que no al derecho penal de autor, que también niegue al estado de policía, que evite todo rastro de peligrosismo y, final, aunque sea técnicamente posible, que proscriba la vigilancia masiva ilimitada.

            Es que la razón de eficacia no puede legitimar el abandono del sistema de garantías que se ha tardado siglos en construir y que ha demandado el derrame de la sangre de muchos. Como tiempo atrás resaltaba el profesor Zaffaroni, el derecho penal liberal (humanitas) y el derecho penal autoritario (hostis) siguen corriendo una carrera dramática y, si alguna duda hubiera acerca de qué posición adopta el saber penal en el moderno orden democrático occidental, que es por “humanitas”, lo exterioriza que no hay ningún instituto, facultad, universidad, centro o ente académico que lleve por nombre Torquemada, o Rosenberg, o los nazistas de la escuela de Kiel[30], o el fiscal Vichinski. Como señala el gran maestro de la UBA, “Nuestra ciencia siempre está del lado de humanitas y no perdona a sus traidores”[31].

            Podría decirse que aquella conclusión de privilegiar al derecho penal liberal del documento europeo previo ha sido felizmente recogida en el posterior y de allí que aquellos sistemas de IA que provocan riesgos intolerables respecto de los derechos fundamentales hayan sido prohibidos. En nuestro medio, los mencionados decretos y resoluciones ministeriales pondrían en evidencia que no estamos teniendo esto tan claro y es de esperar que se revierta la dirección que se insinúa como de una permisividad que, por cierto, es preocupante[32].

 



[1] Conferencia brindada en el “Congreso Internacional de Derecho Penal y Criminología: Ciberespacio y criminalidad en el siglo XXI”, organizado por la Universidad Nacional del Oeste y celebrado en la CABA los días 3 y 4 de julio de 2025, bajo dirección de los Profs. Ricardo A. Basílico, Jorge E. Buompadre y Javier A. Mariani. Se han insertado algunas notas al pie que pueden aclarar o ampliar conceptos o sugerencias de bibliografía sobre el punto.

Ha sido publicado en la biblioteca jurídica online “elDial.com” (www.eldial.com), sección “Suplemento de Derecho Penal y Procesal Penal”, dirigida por Gustavo E. Aboso, edición del lunes 20 de octubre de 2025 (Ref.: DC36EC).

[2] Doctor en Derecho, UNMDP. Máster en Derecho Penal, U. Salamanca (España). Director del Área Departamental Penal, Facultad de Derecho de la UNMDP. Ex Presidente de la Asociación Argentina de Profesores de Derecho Penal.

[3] Sobre el particular puede consultarse la reciente obra de Carlos Christian Sueiro, “Neuroderechos y neurodelitos. Impacto de las neurociencias y la inteligencia artificial en el sistema penal”, prologada por Gustavo Aboso, ed. Hammurabi, Bs.As., 2024.

[4] Es la Ley 27736 sobre “Violencia de Género Digital”, pub. en el BO del 23/10/2023.

[5] Pub. en el BO del 14/4/2009.

[6] Me ocupé de la novedad en el capítulo IV titulado “Violencia de género digital y Ley Olimpia”, de la obra “Nuevas tecnologías y derecho penal”, prólogo de Marcos Salt, ed. Erreius, Bs.As., 2025, págs. 187/241.

[7] Traducida por Francisco Díaz Klaassen, ed. Fondo de Cultura Económica, CABA, 2022, 445 páginas. Pueden consultarse otros trabajos e investigaciones en su página web, disponible en https://katecrawford.net/

[8] En “Atlas…”, ob.cit., pág. 29.

[9] En particular, en su obra “Vigilar y castigar. Nacimiento de la prisión”, Siglo XXI, 22º edición en castellano, Madrid, 1994 (1º edición en francés, 1975).

[10] Para ampliar, ver el opúsculo de Han titulado “Infocracia”, ed. Taurus, Bs.As., 2022. Me he referido asimismo al punto en mi monografía “Inteligencia artificial y derecho penal”, Ediar, Bs.As., 2º edición ampliada y actualizada, 2024, págs. 57/62.

[11] En “Atlas…”, ob.cit., pág. 38.

[12] En “Atlas…”, ob.cit., pág. 42.

[13] Valga recordar que nuestro país es el cuarto productor mundial de litio. En el llamado "triángulo del litio", que se conforma junto a Chile y Bolivia, están alrededor del 65% de los recursos mundiales de litio, que se extrae principalmente de los salares de la Puna. En forma individual, Argentina tiene la segunda reserva más grande del mundo, después de Bolivia. La producción argentina aumentó de 35.000 toneladas en 2022 a 73.000 en 2024. Para 2025 se proyecta una producción de 115.000 toneladas de litio, un 229% más que en 2022, según la Cámara Argentina de Empresas Mineras (CAEM). Fuente: noticia titulada “Litio en Argentina: el motor de la nueva fiebre minera y qué falta para despegar”, pub. en el diario “La Nación”, edición del 3/3/25, versión digital disponible en https://www.lanacion.com.ar/economia/litio-en-argentina-el-motor-de-la-nueva-fiebre-minera-y-que-falta-para-despegar-nid03032025/

[14] En “Atlas…”, ob.cit., pág. 74.

[15] En “Atlas…”, ob.cit., pág. 85.

[16] En “Atlas…”, ob.cit., págs. 147 y 149.

[17] En la Resolución del Parlamento Europeo de 6 de octubre de 2021, sobre la inteligencia artificial en el derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales.

[18] Así, en la obra “Inteligencia artificial y derecho penal”, 1º edición, 2022.

[19] Se trata de la resolución legislativa del Parlamento Europeo, de 13 de marzo de 2024, sobre la propuesta de “Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))”. El Consejo Europeo hizo su aprobación el 13 de junio y el texto fue publicado en el Diario Oficial de la UE el 12 de julio de 2024. Su entrada en vigor ha comenzado el 1 de agosto, siguiendo pasos escalonados que terminarán dentro de dos años, en agosto de 2026.

[20] Así, Crawford, ob.cit., pág. 194. La nombrada hace un muy interesante paralelo con la craneometría del frenólogo Samuel Morton, quien a mediados del siglo XIX había reunido más de mil cráneos (hoy en el museo Penn de Filadelfia), a partir de cuyo estudio y mediciones procuraba justificar la conclusión de la superioridad caucásica.

[21] Obra reseñada, pág. 213.

[22] Crawford, ob.cit., pág. 222.

[23] Protagonizada por Tim Roth, tuvo tres temporadas de capítulos entre los años 2009 y 2011.

[24] Crawford, ob.cit. págs. 233, 237 y 264.

[25] Crawford, ob.cit., págs. 300/301.

[26] Sobre el particular me he extendido en el capítulo III de la obra “Inteligencia artificial…”, ya citada.

[27] Sobre el particular me extendí en la reciente obre “Nuevas tecnologías y derecho penal”, prologada por Marcos Salta, Erreius, Bs.As., 2025. En particular, en el capítulo II “Nueva regulación del ciberpatrullaje y creación de la Unidad de Inteligencia Artificial aplicada a la Seguridad en Argentina”, págs. 77/116.

[28] Como destaca Zaffaroni, “Instituciones procesales demolidas hace siglos son presentadas por los medios de comunicación masivos del actual momento de dominio mundial del capital financiero transnacional, como verdaderas novedades (testigos secretos, agentes provocadores, jueces sin rostro, informes policiales como prueba, extorsiones judiciales, confesiones policiales, por no hablar de tortura moderada), o sea que, elementos inquisitoriales, premodernos, se presentan como innovaciones posmodernas” (en “Doctrina penal nazi. La dogmática penal alemana entre 1933 y 1945”, Ediar, Bs.As., 2017, pág. 278).

[29] Un análisis en extenso de la cuestión en “Nuevas tecnologías…”, ob.cit., capítulo III: “El agente revelador (no provocador) tecnológico (mal llamado “agente encubierto informático”)”, págs. 137/188.

[30] Dentro de la colección “El penalismo olvidado”, dirigida por Zaffaroni, puede consultarse la traducción de Leonardo Brond del trabajo Georg Dahm y Friedrich Schaffstein, los más (tristemente) reconocidos catedráticos penales de la Universidad de Kiel, titulado “¿Derecho penal liberal o derecho penal autoritario?”, Ediar, Bs.As., 2011, que cuenta además con un extenso “Prólogo” del propio Zaffaroni e incluye un trabajo titulado “Las Escuelas de Kiel y de Marburgo, la doctrina Penla nacional-socialista”, de Francisco Blasco y Fernández de Moreda publicado originalmente en 1944.

[31] Zaffaroni, en su conferencia “Humanitas en el derecho penal”, pub. en AAVV “Reforma penal y política criminal. La codificación en el estado de derecho. VI Encuentro de la AAPDP en homenaje al Prof. Enrique U. García Vitor”, Ediar, Bs.As., 2007, pág. 267.

[32] Corroborando que hay buenas razones para la preocupación oportunamente exteriorizada, al momento de cerrar esta versión escrita de la conferencia se ha publicado una noticia titulada “A un año de su creación, el gobierno oculta qué función cumple la Unidad de Inteligencia Artificial del Ministerio de Seguridad” (en diario “Perfil”, edición del 8/7/2025, versión digital disponible en https://www.perfil.com/noticias/politica/a-un-ano-de-su-creacion-el-gobierno-oculta-que-funcion-cumple-la-unidad-de-inteligencia-artificial-del-ministerio-de-seguridad.phtml). El diario informa que presentó una solicitud de acceso a la información pública en abril de 2025 y las autoridades ministeriales decidieron no responder, por lo que un año después de su creación no es posible conocer detalles sobre las tareas que llevó adelante la unidad, con qué tecnología, cuánto personal tiene asignado y qué presupuesto tiene a su cargo. También se noticia que poco después de la publicación de la Res. 710/2024, el Centro de Estudios Legales y Sociales (CELS), la Fundación Vía Libre y Revista Crisis presentaron solicitudes de acceso a la información para saber más sobre la unidad, recibiendo en todos los casos respuestas vagas con el argumento de que se estaban definiendo detalles. Asimismo, aunque sin mayores detalles, se indica que el Observatorio de Derecho Informático Argentino (ODIA) llevó el tema a sede judicial y logró las autoridades entreguen el expediente administrativo en el que se tramitó la sanción de la resolución 710/2024, donde están las deliberaciones previas a la creación de la unidad.