“Inteligencia artificial y
derecho penal: límites para una interacción constitucional”[1]
por Marcelo A. Riquert[2]
- I -
Suelo decir que, para los juristas,
abordar las relaciones entre las nuevas tecnologías y el derecho penal es
estresante, básicamente porque las novedades se suceden con tal velocidad que
no se ha terminado de identificar un grupo de problemas y cuestiones, pensando,
discutiendo y ensayando las posibles respuestas, cuando de inmediato aparecen
otros avances que modifican o hacen surgir una nueva fenomenología que provoca
que, antes de cerrar aquellos, tengamos que estar haciendo frente a estos.
Los descubrimientos que cambian en
modo radical la vida de la humanidad se han acelerado dramáticamente. El hombre
primitivo comenzó a moldear utensilios en arcilla y para que llegara la rueda
pasaron alrededor de 23.000 años. Mucho más acá en el tiempo, el VHS, el DVD o
el Blu-Ray como formatos que cambiaron los modos de acceder a películas o
música cayeron en obsolescencia en poco más de una década. La red social
Facebook, que aparece en 2004, hoy es caracterizada como algo que usan “los
viejos”. Los avances en las interfaces cerebro-computadora llevan a plantear la
existencia de neuroderechos y sus posibles usos fraudulentos en tiempos que no
están tan lejos a preguntarse por la necesidad de tipificar neurodelitos[3].
Es una relación estresante porque,
claro, estamos condenados a ir por detrás de la novedad y, ante la necesidad de
considerarla, se abre un ineludible interrogante: ¿se trata sólo de adecuar el derecho a los cambios, de validarlos, o se
trata de recordar que hay límites previos que deben ser respetados?. El
título elegido actúa como un claro “spoiler” de la postura personal: la
Constitución impone límites. Retomo. Si nos remitimos a novedades normativas
trascendentes en apenas el último año y medio puede verse que, a nivel mundial,
en diciembre de 2024 se ha abierto a la firma el primer Convenio sobre
Cibercriminalidad de Naciones Unidas, fruto de una larguísima discusión, con
sus 68 artículos dedicados a cuestiones fondales, procesales y de cooperación;
en el nivel regional, también en 2024 aparece el primer Reglamento/Ley sobre Inteligencia
Artificial europeo; en el plano local, a fines de 2023 se consagró la llamada
“Ley Olimpia”[4], que
vino a modificar la Ley 26485 de “Protección integral de la Mujer”[5],
incorporando todo lo relativo a la violencia de género “digital”[6].
- II -
El tema en abordaje son los posibles
límites a las intersecciones entre la IA y el derecho penal. En la ocasión,
influido por la crítica mirada que proporciona la reconocida académica
australiana Kate Crawford en su obra “Atlas
de Inteligencia Artificial. Poder, política y costos planetarios”[7],
donde hace hincapié en dirigir la mirada no sólo hacia la usual presentación de
la IA como algo etéreo, inmaterial, que está en “la nube”, sino hacia la
habitualmente ignorada u omitida dimensión física de lo que, dice Crawford, no
es “artificial” ni “inteligente”, sino corpóreo, material, hecho de recursos
naturales, combustible, mano de obra, infraestructuras, logística, historias y
clasificaciones. La nombrada enfatiza que la IA como la conocemos depende por
completo de un vasto grupo de estructuras políticas y sociales, y que debido al
capital que se necesita para construirla a gran escala y los modos de ver que
optimiza, los sistemas de IA son diseñados para servir a intereses dominantes
ya existentes[8].
Breve digresión: esto se da en un
momento en que tales intereses son por los que, conforme refiere Byung-Chul
Han, se ha verificado el pasaje del capitalismo industrial al capitalismo de la
información. En obra también reciente el filósofo surcoreano señala que la
democracia occidental tal como la conocemos está pasando a transformarse en una
verdadera “infocracia” y, tarea para repensar por los penalistas, aquellas
explicaciones sobre el poder punitivo de Foucault, cuando nos describió el “régimen
de la disciplina”[9], deben
volver a procesarse cuando ya no se trata de la explotación de cuerpos y
energía, cuando el factor de poder ya no es la posesión de los medios de
producción, sino que se trata de la explotación de la información y datos, es
el acceso a estos el factor de poder y, por eso, es un “régimen de la
información”. Las personas no son más ganado laboral sino datos y ganado
consumidor. Por decirlo sintéticamente, la cárcel panóptica es reemplazada por
el Smartphone, por el teléfono inteligente, como instrumento de vigilancia y
sometimiento[10].
Por supuesto, este escenario
necesita una explicación que excede el marco y tiempo para esta presentación.
Retomando a Crawford, sintetiza la postura diciendo que “…la IA es un certificado de poder”, llamándonos la atención acerca
de la IA como una “industria de extracción”, a que no se pierda de vista que la
creación de sistemas de IA contemporáneos depende de la explotación de los
recursos energéticos y minerales del planeta, de la mano de obra barata y los
datos a escala[11]. No es una
fuerza espectral o computación incorpórea. No tiene nada de abstracto: es una
idea, una infraestructura, una industria, una forma de ejercer poder y una
manera de ver. Es la manifestación, nos dice Crawford, de un capital muy
organizado, respaldado por vastos sistemas de extracción y logística, con
cadenas de suministros que abarcan todo el planeta, al que, en el camino, están
alterando significativamente[12].
La columna vertebral de la IA son
los minerales, en particular, la minería del litio[13]
y otros dieciochos minerales de “tierras raras” (como los poco conocidos
lantano, cerio, praseodimio, samario, europio o gadolinio, entre otros). Para
entender la intensidad de la explotación baste pensar que un celular lleva unos
8,5 gramos de litio, mientras que la batería de un Tesla S requiere 63 kilos
del mismo material. Si se agrega el masivo consumo de energía eléctrica y que cuando
se hace referencia a la computación avanzada se omite su impacto en la huella
de carbono, los combustibles fósiles o la contaminación, se explica la construcción
del mito de que todo se trata de “la nube”, metáfora que sugiere algo que flota
y es parte de una industria natural y verde. Se ofrece una mítica imagen
pública de compromiso ambiental (sustentabilidad y algoritmos “verdes”),
mientras se requieren colosales cantidades de energía para hacer funcionar la
infraestructura computacional de los servidores de las grandes compañías como
Amazon o Microsoft[14].
En síntesis, la IA es una “megamáquina”, un conjunto de enfoques tecnológicos
que depende de infraestructuras industriales, cadenas de suministros y mano de
obra extendidas por todo el mundo, con un alto costo, pero que se mantienen en
un segundo plano[15]. Un
modo de bajar esos costos es en la mano de obra: aunque a los empleados se los
llame “asociados”, el trato que reciben no es de tales y su labor se registra y
monitorea chequeando hasta su estado emocional para maximizar la eficiencia.
Enseguida volveré sobre las apps para monitorear emociones en distintos
contextos.
- III -
La ideología de “extracción de
datos” en el campo de la IA se ha llevado a una escala gigantesca ya que los
datos son la base de su éxito y rentabilidad. Se va pasando de la metáfora de
los datos como “recursos naturales” esperando a ser descubiertos, de datos
sensibles de personas a “bienes comunes” respecto de los que no interesa la
privacidad, a su consideración como
“capital” acumulable con el que se obtienen ganancias[16]
(el mencionado capitalismo de la información). En cómo y qué se hace con los
datos en las apps de IA hay varias intersecciones de interés penal.
En 2021, en Europa se llamó la
atención sobre el particular señalando que la IA ofrece posibilidades y riesgos
extraordinarios, que no es un fin en sí misma sino un instrumento al servicio
de las personas y que el objetivo debe ser aumentar el bienestar, capacidad y
seguridad humanos[17].
En lo específico, advertía que su uso en el ámbito del DP se basa en la promesa
no siempre cumplida de reducir la criminalidad. Por esa época, al sistematizar
los problemas fondales y procesales en la relación entre la IA y el DP,
identifiqué cuatro grandes núcleos: tecnología de predicción criminal (por
ejemplo, vigilancia policial predictiva y herramientas de reconocimiento
facial); agentes autónomos o artificiales (con los inconvenientes para
determinar cuestiones de participación criminal cuando, por caso, el sistema de
conducción autónoma de un automotor funciona mal y se provoca un daño); gestión
judicial (en particular, el apoyo a decisiones sobre la base de valoración de
riesgos); y, producto de la pandemia sanitaria del COVID-19, el incremento de
la cibervigilancia y el control social[18].
Al comienzo mencioné como novedad
normativa que el Parlamento Europeo –tras profusa discusión e interconsulta- ha
aprobado en 2024 la propuesta de “Reglamento de Inteligencia Artificial”, una
verdadera “Ley de Inteligencia Artificial” (LIA), pionera en el mundo[19].
Es decir, se ha tomado el correcto camino de la regulación y se lo ha hecho con
un enfoque basado en el riesgo, que define en cuatro clases de uso de los
sistemas de IA: 1) aquellos que producen un riesgo inaceptable; 2) un alto
riesgo; 3) un riesgo limitado y, finalmente, 4) uno mínimo o sin riesgo. En el
último caso solo se fomentan códigos de conducta o ética para que las empresas
adhieran; en el segundo y tercero deben implementarse controles de distinta
intensidad que incluyen tareas de prueba, documentación, transparencia y
notificación. En el primer caso, riesgo inaceptable o intolerable respecto de
los derechos fundamentales (aquí hablaríamos de derechos reconocidos y garantizados
constitucionalmente), se ha dispuesto directamente la prohibición (art. 5),
vigente desde febrero de 2025. Así, por ejemplo, en el inc. e) de la norma citada, se prohíbe “la introducción en el mercado, la puesta en servicio para este fin
específico o el uso de sistemas de IA que creen o amplíen bases de datos de
reconocimiento facial mediante la extracción no selectiva de imágenes faciales
de internet o de circuitos cerrados de televisión”. Es importante resaltar
las prohibiciones porque, se verá, hay una serie de novedades locales
concretadas por vía de decretos o resoluciones ministeriales en las que se
habilita la realización de aquello que en Europa se ha prohibido.
Es reconocido fuera de discusión los
posibles conjuntos de datos sesgados y algoritmos injustos, así como que una de
las explicaciones para que ello ocurra son las políticas de clasificación, una
práctica central de la IA y que es a través de la que se determina cómo se
reconoce y produce la “inteligencia” de las máquinas que pueblan desde los
laboratorios hasta la industria tecnológica. La extracción, medición,
etiquetado y ordenamiento de datos con que los sistemas se entrenan son lo que
generan resultados discriminatorios dentro de categorías como la raza, la
clase, el género, la discapacidad o la edad[20].
Adscribir un dato a una categoría es una manera de cosificar el fenómeno
sacándolo de una masa indiferenciada. Una jerarquizaba base de imágenes como
“ImageNet” las tiene organizadas en 21841 categorías, en las que todo es
simplificado, achatado y etiquetado para lo que, lejos de la pretensión de
objetividad, lo que hay es un ejercicio profundamente ideológico que privilegia
y puebla algunas categorías en desmedro u omisión de otras posibles[21].
No puede soslayarse que algunos
métodos de aprendizaje automático incursionan en distinciones vinculadas con la
sexualidad o la criminalidad que, claro, se apoyan sobre categorizaciones
profundamente relacionales y determinadas socialmente, que son contextuales y
cambiantes según el momento y lugar. Por lo tanto, es evidente no son fijas ni
traspasables a cualquier sitio en cualquier oportunidad. Y entonces los
sistemas de aprendizaje automático construyen respuestas sobre base de
categorías fijas clasificando cosas que son relacionales por lo que son
pasibles de críticas tanto científicas como éticas[22].
En línea con esto, valga retomar la
referida LIA europea del año 2024, que dentro de las actividades prohibidas, en
el art. 5. c) prevé: “La introducción en
el mercado, la puesta en servicio o la utilización de sistemas de IA con el fin
de evaluar o clasificar a personas físicas o a grupos de personas durante un
período determinado de tiempo atendiendo a su comportamiento social o a
características personales o de su personalidad conocidas, inferidas o
predichas, de forma que la puntuación ciudadana resultante provoque una o
varias de las situaciones siguientes: i) un trato perjudicial o desfavorable
hacia determinadas personas físicas o grupos enteros de personas en contextos
sociales que no guarden relación con los contextos donde se generaron o
recabaron los datos originalmente; ii) un trato perjudicial o desfavorable
hacia determinadas personas físicas o grupos de personas que sea injustificado
o desproporcionado con respecto a su comportamiento social o la gravedad de
este;…”.
Siendo evidente que las
clasificaciones son necesarias para el entrenamiento y desarrollo de las IA, no
cualquier tipo de aquellas es admisible. Y es preciso que, las herramientas que
se nos ponen a disposición, sean miradas con sentido crítico. Muchos de los
sistemas de predicción de emociones se apoyan en la labor que desde los años
sesenta desarrolló el famoso psicólogo estadounidense Paul Ekman, quien con los
años se transformó en una celebridad mediática, siendo presentado como el
lector de rostros más famoso del mundo y llegó a hacerse una serie televisiva
basada en su capacidad de detectar mentiras (“Lie to me”[23]).
Estos sistemas se usan en aeropuertos, centros de educación y empresas de
selección/contratación de empleados. Sin embargo, se olvida toda la controversia
en torno a la premisa de que el estado interior emocional de alguien puede
evaluarse con precisión analizando un rostro[24].
Otra vez, lo relativo al
reconocimiento de emociones mediantes sistema de IA es abordado por la
autoridad europea y en la mencionada LIA de 2024 se lo limitado excluyéndolo de
los ámbitos laborales y educativos. En efecto, entre las prohibiciones del art.
5, en el inc. f) se ha previsto a “…la
introducción en el mercado, la puesta en servicio para este fin específico o el
uso de sistemas de IA para inferir las emociones de una persona física en los
lugares de trabajo y en los centros educativos, excepto cuando el sistema de IA
esté destinado a ser instalado o introducido en el mercado por motivos médicos
o de seguridad;…”.
Vale la pena insistir en que con un
aura de objetividad, por tratarse “solo de matemáticas”, se esconden sesgos intencionales y no
intencionales de la práctica policial en los sistemas de vigilancia predictiva
(por ejemplo, Predpol, desarrollado por el Departamento de Policía de la ciudad
de Los Ángeles en colaboración con la Universidad de California), que generan
un bucle de retroalimentación y provocan una vigilancia más acentuada sobre
grupos como migrantes, indocumentados, pobres y comunidades afroamericanas y
latinas[25].
Es decir, acentúan la selectividad vigente sobre los grupos más vulnerables.
Algo similar pasa con los controvertidos sistemas de apoyo a decisiones
judiciales por valoración de riesgos (por ejemplo, COMPASS)[26].
Esto conecta con otra de las prohibiciones de la LIA europea, que en el art. 5,
inc. d), incluye: “… la introducción en
el mercado, la puesta en servicio para este fin específico o el uso de un
sistema de IA para realizar evaluaciones de riesgos de personas físicas con el
fin de evaluar o predecir la probabilidad de que una persona física cometa una
infracción penal basándose únicamente en la elaboración del perfil de una
persona física o en la evaluación de los rasgos y características de su
personalidad; esta prohibición no se aplicará a los sistemas de IA utilizados
para apoyar la evaluación humana de la implicación de una persona en una
actividad delictiva que ya se base en hechos objetivos y verificables
directamente relacionados con una actividad delictiva;…”.
- IV -
El detalle sobre las prohibiciones
europeas, reitero, es importante porque estamos viendo en nuestro país que por vía
de “softlaw” (decretos y disposiciones ministeriales), sin pasar por el
Congreso nacional pese a involucrar acciones que pueden comprometer derechos de
raigambre constitucional, se estaría caminando en el sentido inverso al
deseable (justamente, por no prohibirlas o habilitarlas sin necesarios
controles que aseguren no se los afecte)[27].
Me refiero, por ejemplo, a la Res.
428/2024 del Ministerio de Seguridad, cuyo art. 2º inc. “o”, habilita a la policía a realizar labores
preventivas en el ciberespacio respecto de cualquier delito del que se pueda
obtener noticia a través de tal medio. Es decir, ciberpatrullaje con uso de
fuentes abiertas (art. 3º inc. b), para todo. Y en reiteradas ocasiones he
señalado que no estoy en contra de tal actividad investigativa, que considero necesaria
y útil, sino que por tratarse de algo que importa escudriñar en aspectos de la
vida social de los ciudadanos debe tener límites precisos para no incurrir en
desvíos que, por caso, terminen coartando la libertad de expresión. En la misma
resolución, el art. 3º inc. e), permite el uso del “agente revelador
tecnológico” conforme los términos de la Ley 27319. Y esto también es muy
delicado y mereciera mayores discusiones y precisiones porque, dejando de lado
la pretensión de novedad que deriva de la inclusión “tecnológico”, no se trata
de nada realmente nuevo[28]
y es antigua la discusión en torno a que no es lo mismo un agente encubierto
que uno revelador o provocador, y el tipo de provocación constitucionalmente
admisible se vincula con distinciones acerca de la doctrina de la celada legal
o el entrampamiento, que tienen una vertiente objetiva y otra subjetiva, sin
que haya vuelto a ser considerada por la CSJN desde el leading case “Fiscal
c/Fernández”, hace más de tres décadas (la sentencia es del 11/12/1990)[29].
Unos meses más tarde, por Res. 1253/2024 del MS, se creó la “Unidad Especial de
Agentes Encubiertos” en la Dirección Nacional de normativa y relaciones con los
poderes judiciales y los ministerios públicos.
A su vez, la Res. 710/2024 de la
misma autoridad ministerial, crea en su ámbito una “Unidad de Inteligencia
Artificial aplicada a la Seguridad” (UIAAS), entre cuyas funciones (art. 4º) se
especifican las siguientes: reconocimiento facial en tiempo real mediante
cámaras de seguridad (inc. “c”; que tiene posterior correlato en la Res.
1234/2024 del MS, por la que se aprobó el “Protocolo Unificada para el
Reconocimiento y Comparación Facial”); usar algoritmos para predecir futuros
delitos (inc. “d”); procesar grandes volúmenes de datos para crear perfiles de
sospechosos (inc. “e”); analizar redes sociales para detectar amenazas
potenciales, identificar movimientos de grupos delictivos o prever disturbios
(inc. “j”, cuya amplitud es perfectamente compatible con el uso del
ciberpatrullaje para reprimir manifestaciones de protesta social). No es todo,
este año, el mes de junio, por Dec. 383/2025 se aprobó el nuevo “Estatuto de la
Policía Federal Argentina”, cuyo art. 6º inc. 8, en conexión con el antes
citado inc. “e”, establece como una facultad de la PFA el registrar y calificar
a las personas dedicadas habitualmente a una actividad que la policía debe
reprimir; mientras que vinculado al inc. “j”, agrega la misión de hacer
inteligencia criminal (arts. 5 inc. 3 y 6 inc. 2 del decreto; 5 inc. 3 del
Estatuto) habilitando su acceso a bases de datos públicas y pudiendo solicitar
acceso a privadas (art. 6 inc. 5 del decreto; mismo número e inciso del
Estatuto).
Es que el nuevo marco general de
actuación previsto es la investigación “proactiva” de los delitos federales y
complejos, la desarticulación de organizaciones criminales y la protección del
Estado (arts. 1 y 5 inc. 1º del decreto; 1 del Estatuto). Es decir, enfatizando
que no es necesaria la previa orden por autoridad judicial o del MPF. De allí
el amplio haz de facultades habilitadas en su art. 6º, entre las que destacan (porque
son merecedoras de real control y seguimiento), las siguientes:
Inc. 2: hacer inteligencia criminal
y análisis de la información;
Inc. 3: recabar información y asegurar
prueba para “luego” presentarla al MPF o jueces para facilitar el “inicio” de
una investigación;
Inc. 6: relacionarse con la
comunidad, instituciones y organizaciones de la sociedad civil con el fin de
prevenir delitos;
Inc. 7: detener sin orden judicial
por hasta diez horas si presume delito y la persona no acredita la identidad;
Inc. 11: realizar, sin necesidad de
autorización judicial, tareas de prevención del delito en espacios públicos
digitales (redes sociales, sitios web públicos y otras fuentes abiertas),
conforme pautas y principios rectores dictados para dichas actividades por la
autoridad competente, respetando la protección de datos personales, libertad de
expresión, intimidad y privacidad.
Esta última, muy específica al
acontecer en el ciberespacio, no puede dejar de crear preocupación si se
atiende al modo diferencial en que se valoran por la autoridad pública los
discursos con relevancia típica que en redes sociales día a día circulan. Las
conductas comunicativas odiosas del sector oficial son ignoradas, las de origen
y sentido contrapuesto pueden dar lugar a formación de causas, detenciones,
etc. Sin desconocer las facultades inherentes al poder administrador para
organizar cómo diseña y ejecuta su labor específica, cuando se trata de medidas
que pueden afectar la calidad de “ciudadanía”, el ejercicio de los derechos
constitucionales, debiera no perderse de vista la conveniencia de que discutan
y legislen en sede natural para establecerles límites, que es la del Congreso.
- V -
Cierro esta intervención postulando
que, en mi modesta opinión, no albergo dudas de que debe consagrarse una regulación
en materia de IA y que, en la relativo con sus intersecciones con el derecho
penal, debe hacérselo sin olvido de que este interviene, con límites, después
(no antes) del delito.
La mentada resolución del Parlamento
Europeo de 2021 recordaba lo que vulgarmente serían verdades de Perogrullo
pero, en los tiempos que corren, es aconsejable repetir cual si fuese un mantra:
debe tratarse de una regulación que le diga que no al derecho penal de autor,
que también niegue al estado de policía, que evite todo rastro de peligrosismo
y, final, aunque sea técnicamente posible, que proscriba la vigilancia masiva
ilimitada.
Es que la razón de eficacia no puede
legitimar el abandono del sistema de garantías que se ha tardado siglos en
construir y que ha demandado el derrame de la sangre de muchos. Como tiempo
atrás resaltaba el profesor Zaffaroni, el derecho penal liberal (humanitas) y
el derecho penal autoritario (hostis) siguen corriendo una carrera dramática y,
si alguna duda hubiera acerca de qué posición adopta el saber penal en el
moderno orden democrático occidental, que es por “humanitas”, lo exterioriza
que no hay ningún instituto, facultad, universidad, centro o ente académico que
lleve por nombre Torquemada, o Rosenberg, o los nazistas de la escuela de Kiel[30],
o el fiscal Vichinski. Como señala el gran maestro de la UBA, “Nuestra ciencia siempre está del lado de
humanitas y no perdona a sus traidores”[31].
Podría decirse que aquella
conclusión de privilegiar al derecho penal liberal del documento europeo previo
ha sido felizmente recogida en el posterior y de allí que aquellos sistemas de
IA que provocan riesgos intolerables respecto de los derechos fundamentales
hayan sido prohibidos. En nuestro medio, los mencionados decretos y
resoluciones ministeriales pondrían en evidencia que no estamos teniendo esto
tan claro y es de esperar que se revierta la dirección que se insinúa como de
una permisividad que, por cierto, es preocupante[32].
[1]
Conferencia brindada en el “Congreso
Internacional de Derecho Penal y Criminología: Ciberespacio y criminalidad en
el siglo XXI”, organizado por la Universidad Nacional del Oeste y celebrado
en la CABA los días 3 y 4 de julio de 2025, bajo dirección de los Profs.
Ricardo A. Basílico, Jorge E. Buompadre y Javier A. Mariani. Se han insertado
algunas notas al pie que pueden aclarar o ampliar conceptos o sugerencias de
bibliografía sobre el punto.
Ha sido publicado en la biblioteca jurídica online “elDial.com”
(www.eldial.com), sección “Suplemento de Derecho Penal y Procesal Penal”,
dirigida por Gustavo E. Aboso, edición del lunes 20 de octubre de 2025 (Ref.:
DC36EC).
[2]
Doctor en Derecho, UNMDP. Máster en Derecho Penal, U. Salamanca (España).
Director del Área Departamental Penal, Facultad de Derecho de la UNMDP. Ex
Presidente de la Asociación Argentina de Profesores de Derecho Penal.
[3]
Sobre el particular puede consultarse la reciente obra de Carlos Christian
Sueiro, “Neuroderechos y neurodelitos.
Impacto de las neurociencias y la inteligencia artificial en el sistema penal”,
prologada por Gustavo Aboso, ed. Hammurabi, Bs.As., 2024.
[4] Es la Ley 27736 sobre “Violencia de Género
Digital”, pub. en el BO del 23/10/2023.
[5]
Pub. en el BO del 14/4/2009.
[6]
Me ocupé de la novedad en el capítulo IV titulado “Violencia de género digital y Ley Olimpia”, de la obra “Nuevas tecnologías y derecho penal”,
prólogo de Marcos Salt, ed. Erreius, Bs.As., 2025, págs. 187/241.
[7]
Traducida por Francisco Díaz Klaassen, ed. Fondo de Cultura Económica, CABA,
2022, 445 páginas. Pueden consultarse otros trabajos e investigaciones en su
página web, disponible en https://katecrawford.net/
[8]
En “Atlas…”, ob.cit., pág. 29.
[9]
En particular, en su obra “Vigilar y castigar.
Nacimiento de la prisión”, Siglo XXI, 22º edición en
castellano, Madrid, 1994 (1º edición en francés, 1975).
[10] Para ampliar, ver el opúsculo de Han
titulado “Infocracia”, ed. Taurus,
Bs.As., 2022. Me he referido asimismo al punto en mi monografía “Inteligencia
artificial y derecho penal”, Ediar, Bs.As., 2º edición ampliada y actualizada,
2024, págs. 57/62.
[11]
En “Atlas…”, ob.cit., pág. 38.
[12]
En “Atlas…”, ob.cit., pág. 42.
[13]
Valga recordar que nuestro país es el cuarto productor mundial de litio. En el
llamado "triángulo del litio", que se conforma junto a Chile y
Bolivia, están alrededor del 65% de los recursos mundiales de litio, que se
extrae principalmente de los salares de la Puna. En forma individual, Argentina
tiene la segunda reserva más grande del mundo, después de Bolivia. La
producción argentina aumentó de 35.000 toneladas en 2022 a 73.000 en 2024. Para
2025 se proyecta una producción de 115.000 toneladas de litio, un 229% más que
en 2022, según la Cámara Argentina de Empresas Mineras (CAEM). Fuente: noticia
titulada “Litio en Argentina: el motor de
la nueva fiebre minera y qué falta para despegar”, pub. en el diario “La
Nación”, edición del 3/3/25, versión digital disponible en https://www.lanacion.com.ar/economia/litio-en-argentina-el-motor-de-la-nueva-fiebre-minera-y-que-falta-para-despegar-nid03032025/
[14]
En “Atlas…”, ob.cit., pág. 74.
[15]
En “Atlas…”, ob.cit., pág. 85.
[16]
En “Atlas…”, ob.cit., págs. 147 y 149.
[17]
En la Resolución del Parlamento Europeo de 6 de octubre de 2021, sobre la
inteligencia artificial en el derecho penal y su utilización por las
autoridades policiales y judiciales en asuntos penales.
[18]
Así, en la obra “Inteligencia artificial
y derecho penal”, 1º edición, 2022.
[19]
Se trata de la resolución legislativa del Parlamento Europeo, de 13 de marzo de
2024, sobre la propuesta de “Reglamento
del Parlamento Europeo y del Consejo por el que se establecen normas
armonizadas en materia de inteligencia artificial (Ley de Inteligencia
Artificial) y se modifican determinados actos legislativos de la Unión
(COM(2021)0206 – C9-0146/2021 – 2021/0106(COD))”. El Consejo Europeo hizo
su aprobación el 13 de junio y el texto fue publicado en el Diario Oficial de
la UE el 12 de julio de 2024. Su entrada en vigor ha comenzado el 1 de agosto,
siguiendo pasos escalonados que terminarán dentro de dos años, en agosto de
2026.
[20]
Así, Crawford, ob.cit., pág.
194. La nombrada hace un muy interesante paralelo con la craneometría del
frenólogo Samuel Morton, quien a mediados del siglo XIX había reunido más de
mil cráneos (hoy en el museo Penn de Filadelfia), a partir de cuyo estudio y
mediciones procuraba justificar la conclusión de la superioridad caucásica.
[21]
Obra reseñada, pág. 213.
[22]
Crawford, ob.cit., pág. 222.
[23]
Protagonizada por Tim Roth, tuvo
tres temporadas de capítulos entre los años 2009 y 2011.
[24]
Crawford, ob.cit. págs. 233, 237 y
264.
[25]
Crawford, ob.cit., págs. 300/301.
[26]
Sobre el particular me he extendido en el capítulo III de la obra “Inteligencia artificial…”, ya citada.
[27]
Sobre el particular me extendí en la reciente obre “Nuevas tecnologías y derecho penal”, prologada por Marcos Salta,
Erreius, Bs.As., 2025. En particular, en el capítulo II “Nueva regulación del ciberpatrullaje
y creación de la Unidad de Inteligencia Artificial aplicada a la Seguridad en
Argentina”, págs. 77/116.
[28]
Como destaca Zaffaroni, “Instituciones
procesales demolidas hace siglos son presentadas por los medios de comunicación
masivos del actual momento de dominio mundial del capital financiero
transnacional, como verdaderas novedades (testigos secretos, agentes
provocadores, jueces sin rostro, informes policiales como prueba, extorsiones
judiciales, confesiones policiales, por no hablar de tortura moderada), o sea
que, elementos inquisitoriales, premodernos, se presentan como innovaciones
posmodernas” (en “Doctrina penal
nazi. La dogmática penal alemana entre 1933 y 1945”, Ediar, Bs.As., 2017,
pág. 278).
[29]
Un análisis en extenso de la cuestión en “Nuevas
tecnologías…”, ob.cit., capítulo III: “El
agente revelador (no provocador) tecnológico (mal llamado “agente encubierto
informático”)”, págs. 137/188.
[30]
Dentro de la colección “El penalismo
olvidado”, dirigida por Zaffaroni, puede consultarse la traducción de
Leonardo Brond del trabajo Georg Dahm y Friedrich Schaffstein, los más
(tristemente) reconocidos catedráticos penales de la Universidad de Kiel,
titulado “¿Derecho penal liberal o
derecho penal autoritario?”, Ediar, Bs.As., 2011, que cuenta además con un
extenso “Prólogo” del propio Zaffaroni e incluye un trabajo titulado “Las Escuelas de Kiel y de Marburgo, la
doctrina Penla nacional-socialista”, de Francisco Blasco y Fernández de
Moreda publicado originalmente en 1944.
[31]
Zaffaroni, en su conferencia “Humanitas
en el derecho penal”, pub. en AAVV “Reforma penal y política criminal. La
codificación en el estado de derecho. VI Encuentro de la AAPDP en homenaje al
Prof. Enrique U. García Vitor”, Ediar, Bs.As., 2007, pág. 267.
[32]
Corroborando que hay buenas razones para la preocupación oportunamente
exteriorizada, al momento de cerrar esta versión escrita de la conferencia se
ha publicado una noticia titulada “A un
año de su creación, el gobierno oculta qué función cumple la Unidad de
Inteligencia Artificial del Ministerio de Seguridad” (en diario “Perfil”,
edición del 8/7/2025, versión digital disponible en https://www.perfil.com/noticias/politica/a-un-ano-de-su-creacion-el-gobierno-oculta-que-funcion-cumple-la-unidad-de-inteligencia-artificial-del-ministerio-de-seguridad.phtml).
El diario informa que presentó una solicitud de acceso a la información pública
en abril de 2025 y las autoridades ministeriales decidieron no responder, por
lo que un año después de su creación no es posible conocer detalles sobre las tareas que llevó adelante la unidad,
con qué tecnología, cuánto personal tiene asignado y qué presupuesto tiene a su
cargo. También se noticia que poco después de la publicación de la Res.
710/2024, el Centro de Estudios Legales y Sociales (CELS), la Fundación Vía
Libre y Revista Crisis presentaron solicitudes de acceso a la información para
saber más sobre la unidad, recibiendo en todos los casos respuestas vagas con
el argumento de que se estaban definiendo detalles. Asimismo, aunque sin
mayores detalles, se indica que el Observatorio de Derecho Informático
Argentino (ODIA) llevó el tema a sede judicial y logró las autoridades entreguen
el expediente administrativo en el que se tramitó la sanción de la resolución
710/2024, donde están las deliberaciones previas a la creación de la unidad.
No hay comentarios:
Publicar un comentario