Inteligencia artificial y derecho penal: realidades y proyecciones[1]
Por Marcelo A.
Riquert[2]
Sumario: 1. Notas introductorias. 2. Inteligencia artificial y su
consideración jurídica. 3. IA y derecho penal: problemas fondales y procesales.
4. Provisorias conclusiones. 5. Material consultado
1. Notas introductorias
Asistimos
en la actualidad a lo que muchos definen como el comienzo de la cuarta
revolución industrial, signada por el surgimiento o avances significativos en
áreas tales como la nanotecnología, la biotecnología, el cloud computing, la
impresión en 3D, la big data y, por supuesto, la inteligencia artificial (en
adelante, IA). La aparición de la máquina a vapor había signado a la primera,
en el siglo XVIII; la electricidad y el fordismo moldearon la segunda en el
siglo XIX, mientras que el siglo pasado fue atravesado por dos guerras
mundiales entre las que hubo la gran depresión y, en lo tecnológico, ofreció,
entre otras cosas, la energía nuclear (que dio por terminada la segunda gran
guerra y fue factor decisivo para la instalación de llamada “guerra fría”) y el
geométrico crecimiento de las llamadas tecnologías de la información y
comunicación (TICs). Así la tercera revolución industrial marcó sus últimas
décadas signadas por la “globalización”. Para el derecho penal esta
fenomenología llevó a una larga discusión acerca de la posibilidad o no de
procesar la conflictividad inherente con las herramientas del derecho penal
clásico o “nuclear” (así, la escuela de Frankfurt) o si resultaba necesario un
nuevo derecho penal cuando ya no se trata simplemente de bienes jurídicos
individuales sino macrosociales, autores que no sólo son personas físicas sino
también jurídicas y técnicas de tipificación en que el resultado no es un daño
(debemos prevenirlo) sino un peligro.
Mientras
en la tercera revolución industrial, frente a las conductas disvaliosas
realizadas por medio de las TICs nos preguntábamos si había “delitos
informáticos” o, por su influencia como factor criminógeno, “delincuencia
informática; la cuarta, como no puede ser de otro modo, nuevamente detrás del
cambio tecnológico, nos encuentra planteándonos qué hacer con lo que sucede en
el “metaverso” (nuevo espacio digital inmersivo e interactivo para la
conflictividad humana) y si regulamos y cómo lo hacemos a la IA, justamente
objeto de esta reunión.
Cuando
se sostiene el pasaje del “antropoceno” al “tecnoceno” (cf. Flavia Costa),
estamos viviendo en la que se define como la “sociedad de la información” y si
nos preguntamos por cuánta información hay acumulada el aserto se revela
acertado cuando el volumen se tiene que medir en zetabytes (un uno seguido de
veintiún ceros). Dos datos que por “viejos” no pierden elocuencia: 1) entre
2014 y 2017 lo digitalizado equivale a todo lo acumulado desde la prehistoria
hasta 2014; 2) hasta 2015 se habían reunido 5 zetabytes que, visibilizados en
papel, equivalen a 4500 pilas de libros hasta el sol.
La
tecnología sigue esparciéndose por el mundo a ritmo acelerado. Desde 2020 la
población del planeta creció un 4% (pasamos de 7700 millones a 8000 millones de
personas), lapso en que la conectividad con Internet lo hizo el 8% llegando a
un total de unos 5100 millones de individuos (68% del total mundial) y el uso
de redes sociales subió un 9,4%, interactuando en ellas unos 4760 millones de
usuarios (59,4% del mismo total). Por supuesto, esto se da con marcadas
asimetrías cuyos extremos eran en 2020 Emiratos Árabes Unidos, con el 99% de su
población conectada, y Burundi, con sólo el 7%. Siendo las cifras de
crecimiento impactantes y, aunque en ámbitos como en el que ahora mismo estamos
reunidos, podemos sentir que todos participamos del mismo fenómeno, lo cierto
es que todavía el 40% de los terrestres no viven su vida en contacto con las
redes sociales, fuera de sus beneficios y también de su toxicidad; y el 30% no
tiene acceso permanente, estable, a Internet.
De
revés, el 70%, en forma más o menos directa, estamos viviendo lo que Zuboff
denomina como la era del capitalismo de la vigilancia, la Internet de las cosas
y el mercado de los futuros conductuales, y que Rouvroy y Berns llaman la
“gubernamentalidad algorítmica”. Pasamos de la inteligencia de las máquinas a
casas inteligentes donde todo lo que hacemos se registra por nuestros
proveedores, lo que permite no sólo predecir sino también orientar nuestra
conducta futura pero no en nuestro propio beneficio sino el de otros,
profundizando el instrumentarismo. Y los proveedores, tanto en occidente como
en oriente, son un acotadísimo número de jugadores que Amy Webb definió como
los “Big 9”: de un lado Google, Microsoft, Apple, Facebook, IBM y Amazon
(GMAFIA); del otro, Baidú, Alibaba y Tencent (BAT). Otros ofrecen mínimos
cambios y sintetizan en GAM(F)A (Google, Apple, Meta –Facebook- y Amazon) y
BATX (Baidú, Alibaba, Tencent y Xiami). Si bien una mirada sesgada y
superficial parece inquietar a occidente ante el “programa del buen ciudadano” de
China, simplificando, la realidad es que la operatividad de los grupos no
ofrece diferencias significativas porque de este lado del mundo también la
información algorítimicamente procesada determina si nos dan o no un crédito,
si accedemos o no a un trabajo, si somos objeto de cancelación social o no. En
fin, lo que llevó a que Cathy
O’Neil se refiriera a los algoritmos como “máquinas de destrucción
matemática”.
Podríamos
advertir que una diferencia palpable comienza a mostrar Europa, primero con su
“Carta Ética Europea sobre el uso de la IA en los sistemas judiciales y su
entorno” (2018), más su Res. de 6/10/21, y luego, de mayor amplitud, cuando el
año pasado promovió leyes para la transparencia digital, como la Ley de
Servicios Digitales y la Ley de Mercados Digitales. Se procura con ellas que se
alcancen estándares mínimos de transparencia digital por las tecnológicas con
más de 45.000.000 de usuarios, es decir, las que importan: Google, Meta,
Instagram, Twitter, Amazon.
Los
ostensibles progresos en el desarrollo de dispositivos de interfaz entre
cerebro y computadora, tanto externos como invasivos, junto a los
descubrimientos en materia de neurociencias, detrás de lo que está tanto la
empresa privada (por ejemplo, Neurolink, de Elon Musk, o Facebook) o los
estados (China), han provocado que comencemos a hablar de “neuroderechos”. En
el proyecto “Brain” de Rafael Yuste (Universidad de Columbia) se identifican
cinco: privacidad mental, identidad personal, libre albedrío, aumento de la
neurocognición y protección respecto de los sesgos. Otro integrante de este
mismo panel, el Dr. Sueiro, ha mencionado la discusión en torno a la necesidad
de futuras tipificaciones de conductas como el acceso ilegítimo a la mente de
una persona por medio de un dispositivo de interface cerebro-computadora (ICC)
o el apoderamiento de información mediante un dispositivo de ICC.
Es
importante no perder de vista todo este contexto y, retomando la ineludible
nota de una regulación jurídica que va por detrás de los acontecimientos,
parece oportuno señalar la coincidencia con la propuesta de Haissiner y Pastor:
“frente la tecnología, ni fobia ni euforia”.
2. Inteligencia artificial y su consideración jurídica
En
la pasada década de los noventa Ulrich Sieber nos decía que los avances en las
tecnologías de la información y comunicación habían ofrecido como consecuencia
cuatro oleadas de reforma legal: 1º) la protección de la privacidad en los
setenta; 2º) la represión de los delitos económicos por ordenadores en los
ochenta; 3º) contemporánea, la protección de la propiedad intelectual en la
informática; y, 4º) la reforma procesal para el tratamiento de la evidencia
digital en los noventa. Hemos agregado una quinta oleada a comienzos del actual
milenio de la mano de la instalada lucha contra el enemigo terrorista derivada
de los ataques del 9/11, popularizándose la discusión en torno al hacktivismo y
el ciberterrorismo. Poco después, los avances en materia de IA y el avance de
la Internet de las cosas nos enfrentan a nuevos desafíos jurídicos y crece la
consideración de una suerte de sexta ola que comienza a tener reflejo en los
estudios de grado, observándose en los más recientes programas de estudios de
la carrera de abogacía que se incorporan materias como “IA y derecho” o
“Derecho Artificial” (denominación la última que no me parece muy feliz).
Ha
pasado mucho desde aquella inicial reunión en Dartmouth (1956) para responder
al interrogante: ¿es posible que una máquina simule la inteligencia humana?[3].
La imagen de los científicos de distintas áreas del conocimiento reunidos bajo
aquella premisa basta para contestar otra pregunta de suma pertinencia como es
si los algoritmos son asépticos o ideologizados, alternativa que decanta con
claridad hacia lo último. La fotografía muestra palmarias subrepresentaciones
en lo racial, etario y género. Podría contra-argumentarse que hoy no sería
exactamente igual y es cierto, no lo sería porque habría algunos cambios en los
porcentajes de representación pero no serían realmente significativos en
términos de pertenencia cultural.
Si
tomamos como válida la definición que se proporcionara en los cuestionarios
recibidos de AIDP para producir los informes nacionales, se entiende por IA un
sistema que muestre un comportamiento inteligente al analizar su entorno y adopte
cursos de acción, con cierto grado de autonomía, para lograr objetivos
específicos (Picotti). Para entender dónde estamos parados, respecto de qué
discutimos cuál debe ser la consideración jurídica, es conveniente recordar que
se suele distinguir entre la IA débil o estrecha, la promedio o general y la
suerte o súper IA. La débil refiere a los sistemas informáticos que permiten
que el aprendizaje automático realice una tarea específica. La promedio a los
que tienen capacidad de comprensión para cualquier tarea. La fuerte a los que
exceden la capacidad de los seres humanos.
¿Dónde
estamos parados hoy? Según se puede leer con consenso, todavía en la débil o
estrecha. Tal limitación, valga la insistencia, no elude el problema general de
ser útil para amplificar, potenciar y replicar rasgos negativos. Valga como
ejemplo el uso de algoritmos para difundir y multiplicar los discursos de odio,
de inquietante actualidad.
¿Y
qué se está haciendo? Desde su sede de París, la Organización para la
Cooperación y el Desarrollo Económico (OCDE), que reúne en la actualidad a 42
naciones, entre ellas, Argentina, ha creado un Consejo sobre IA. Se discuten
dos modelos para regular la IA: 1) normas verticales, sectoriales y específicas;
2) regulación transversal por tipo de tecnología. También dos modelos de
control: a) un órgano guardián de IA (por ejemplo, en Argentina hay un proyecto
de ley en trámite para un Consejo Federal de IA); b) consejos de seguridad
sectoriales. Los problemas que deben ser tenidos en cuenta: a) la caja negra
(transparencia de los sistemas); b) los sesgos en los algoritmos; c) la ética
de la selección (¿es lo mismo perseguir el terrorismo que enfrentar una crisis
sanitaria como la pandemia por el COVID-19?); d) el manejo de la información.
En
lo que hace específicamente a lo penal, es de interés mencionar otra vez a la “Res.
del Parlamento Europeo de 6 de octubre de 2021 sobre la IA en el Derecho Penal
y su utilización por las autoridades policiales y judiciales en asuntos penales”.
Allí se resalta que la IA ofrece tanto posibilidades como riesgos
extraordinarios, que no es un fin en sí misma sino un instrumento al servicio
de las personas. Se enfatiza que el objetivo debe ser aumentar el bienestar,
capacidad y seguridad humanos. Y advierte que su uso en el ámbito del derecho
penal se basa en la promesa no siempre cumplida de reducir la criminalidad.
No
hay naturalmente espacio en esta ponencia de explorar la totalidad del universo
de alternativas que ofrece la IA al presente y, con la velocidad que se suceden
las novedades, ciertamente es casi imposible estar actualizado. Entre las
principales ramas de la IA suele mencionarse al machine learning, el diseño de
sistemas expertos, la visión artificial, el reconocimiento del habla, la
planificación automática, la robótica y el procesamiento de lenguaje natural.
En esta última proliferan las noticias a partir del impacto que Open IA ha
logrado a fines del año pasado y comienzos del presente con su “ChatGPT” (Chat Generativo
Preentrenado Transformador). Hace unos días los diarios publicaban que un juez
colombiano había dictado una sentencia asistido por el ChatGPT. Con lógica
curiosidad, comencé a experimentar con esta herramienta que el Dr. Ingeniero
Informático José Angel Olivas Varela (UCLM-Ciudad Real) caracterizó
recientemente como un “Google anabolizado”, lo hice planteándole la necesidad
de hacer un escrito de eximición de prisión. Brindé los datos básicos y en
segundos tuve la propuesta de escrito en el que se habían incorporado algunos
argumentos pertinentes que yo no había proporcionado. El ChatGPT había
consignado que el imputado no tenía antecedentes penales y que tenía arraigo
domiciliario y familiar que le servirían de contención. Así, por un lado, reveló
que tenía en cuenta factores de interés para la decisión que se solicitaba; por
el otro, “inventó” datos de los que, en realidad, no disponía. Déficit
manifiesto fue la falta de indicación normativa para fundar el pedido. A través
de varias correcciones, finalmente obtuve un escrito en condiciones de ser
presentado. Mi conclusión personal sintética: mejor que mi expectativa inicial,
pero lejos todavía de ofrecer un escrito listo para usarse (¿por cuánto
tiempo?, sería la pregunta subsiguiente).
Además,
le pedí que me ayudara a preparar esta conferencia interrogándole sobre la
utilidad de la IA para cometer delitos. La reconoció y mencionó como ejemplo de
una aplicación maliciosa de la IA la creación de programas de phishing o
malware. Enumero varios posibles delitos en que sería de ayuda: fraude
financiero, ataques informáticos, espionaje y vigilancia ilegal, abusos online
y discursos de odio (sobre los últimos volveré después).
También
aclaró que la IA no es ni buena ni mala sino una herramienta neutral que puede
ser usada para fines positivos o negativos dependiendo la voluntad del usuario.
En el primer sentido ejemplificó que la IA puede ser utilizada para detectar
delitos, para mejorar la seguridad de los sistemas y la privacidad online.
En términos del posible uso para detectar
delitos no puedo dejar de señalar que, en ocasiones, puede ofrecer una nueva
gama de problemas desde el punto de vista penal. Así, la Universidad de Deusto
ha desarrollado un negobot (Lolita), que opera cual suerte de agente provocador
online para detectar pedófilos y la distribución de material de abuso sexual
infantil. “Lolita” interactúa simulando ser una niña con los potenciales
ofensores sexuales, que creen estar ante una joven real a la que procuran
engañar para perpetrar su criminal designio. La utilidad, indudable. Que
acarrea todos los problemas y discusiones inherentes al uso y límites de la
provocación, también indudable.
Si
retomamos el tema de los discursos de odio, la IA se suele asociar tanto como
un factor potenciador negativo, facilitando su reproducción y multiplicación,
como una herramienta fundamental para su detección y prevención. En marzo de
2023, en el seminario internacional “Inteligencia Artificial y Sistema Penal”,
celebrado en la Facultad de Derecho y Ciencias Sociales de Ciudad Real,
Universidad de Castilla-La Mancha, coorganizado por su Escuela de Ingeniería
Informática y el Instituto de Derecho Penal Europeo e Internacional, se mostraron
los avances un proyecto conjunto entre ambas áreas para la detección y
evaluación (valoración jurídica) de estos discursos online[4],
bajo apropiados estándares de transparencia[5].
Retomando la consulta con el ChatGPT, justamente indicó como opciones preventivas
que una IA puede desarrollar en la prevención del discurso de odio a la
detección automática de contenidos ofensivos, su monitorización en tiempo real,
el análisis de tendencias y patrones en la publicación y, finalmente, la
generación de contenidos alternativos que promuevan la tolerancia y la
inclusión.
No
es esta la ocasión para profundizar sobre esta temática pero sí luce oportuna
su mención cuando se habla sobre si regular y cómo hacerlo lo vinculado con la
IA, en particular porque se trata de una temática en que la tensión entre la
libertad de expresión y los límites generales de prohibición han mostrado cómo
la adopción de modelos contrapuestos ha entorpecido el avance en la materia. En
efecto, pueden observarse en nuestra esfera de referencia cultural, es decir,
occidente, que cohabitan dos modelos para regular los discursos de odio y las
fake news: de un lado el estadounidense, que propicia al máximo la libertad de
expresión y trabaja bajo premisa de inexistencia de censura previa y responsabilidad
posterior por daño (sería el que sigue Argentina conforme dejan en claro
diversos precedentes de la CSJN como Rodríguez, Gimbutas, Paquez y, el último,
Denegri –cuando se trató la cuestión del derecho al olvido-); del otro, el que
procura evitar la producción del daño y, por lo tanto, implementa la censura
previa, lo que se ha visto en forma restringida a cuestiones electorales en
reciente normativa francesa y alemana. En síntesis, que el ejemplo es
demostrativo que no basta con acordar sobre la necesidad de regular, sino que
lo más difícil es acercar posiciones acerca de cómo hacerlo.
3. IA y derecho penal: problemas fondales y procesales
Yendo
a la específica vinculación entre la IA y el derecho penal, puede decirse que
media cierto grado de consenso en que se han detectado problemas tanto en lo
atinente a la rama sustantiva como la adjetiva del último. Las áreas en que se
focalizan puede sistematizarse del siguiente modo: a) tecnología de predicción
criminal (aquí, por ejemplo, lo relativo a la vigilancia predictiva y los
sistemas de reconocimiento facial, por voz, etc.); b) agentes autónomos o
artificiales (hay numerosas cuestiones relativas a la autoría y participación
criminal por los resultados disvaliosos cometidos por autos de conducción autónoma
y drones tanto de uso civil como militar); c) pandemia y control sanitario (el
COVID-19 dio lugar a un uso intensivo de la IA tanto para la prevención y
tratamiento, como para la instalación de la cibervigilancia); d) gestión
judicial (en particular, el apoyo de decisiones sobre la base de la valoración
algorítmica de riesgos).
Por
tomar solo un ejemplo, baste tener presente la extensión que ha alcanzado la
vigilancia tecnológica del espacio público (y sus posibilidades de avance en el
privado), siendo probablemente extremos la desarrollada en las grandes ciudades
chinas por intermedio de la compañía SenseTime o la proliferación de cámaras
londinense. Harari ha señalado que la cibervigilancia se presentó para la
pandemia del coronavirus como una suerte de “solucionismo tecnológico” que
importó el pasaje de la que calificó como “epidérmica” (big data sobre datos
sensibles y geolocalización) hacia la que llama “hipodérmica” (por su
profundización a partir del uso de los datos biométricos). Resaltó que en aquel
contexto la IA sirvió tanto para combatir la infodemia y prevenir y contener
contagios, como para instalar una suerte de lo que podría llamarse
“coronoptikón” (así, Ramonet), un panóptico a propósito del coronavirus.
No
puede soslayarse que, en la actualidad, en los países más desarrollados pero
también en los que no lo son –aunque probablemente con menos intensidad y
calidad de medios- ya se usan o están disponibles numerosas “apps” de IA para
el uso policial. Sin pretensión de exhaustividad pueden mencionarse:
a) Reconocimiento
facial (en Argentina, implementada por ejemplo en CABA y Mendoza);
b) Reconocimiento
de matrículas (ídem, en CABA)
c) Identificación
por voz y reconocimiento del habla (en uso por el MPF de la CABA, con el sistema
“Prometea”);
d) Reconocimiento
de temperatura (por el Covid, múltiples puntos de uso en estaciones de
transporte público, aeropuertos, grandes centros comerciales, etc.);
e) Tecnología
de lectura de labios y vigilancia auditiva (algunos sistemas de cámaras de
vigilancia del espacio público en CABA tienen posibilidad de hacer tomas de
sonidos por un tiempo limitado);
f) Análisis
autónomo de bases de datos no identificadas;
g) Predicción
de puntos críticos delictivos (hot spots)
f) Detección
de comportamientos (en la localidad bonaerense de Tigre, hay un sistema que detecta
patrones de recorrido);
g) Herramientas
de autopsia virtual;
h) Herramientas
para detección de fraudes financieros y financiación del terrorismo;
i)
Forensia sobre dispositivos electrónicos: UFED (Universal Forensic
Extraction Device).
¿Cuáles
son los riesgos de estas herramientas? En general, se suele mencionar que, al
menos todavía, exhiben variables grados de fiabilidad y precisión lo que traduce en resultados con distintos
porcentajes de errores o falsos positivos. Pero no es todo y, quizá,
tampoco lo más importante. En efecto, no hay dudas que en poco tiempo mejorarán
y los yerros serán mínimos. El problema más significativo es y seguirá siendo
la repercusión sobre los derechos
fundamentales, lo que abarca un amplio prisma en el que se incluyen desde los sesgos
y la discriminación, hasta la tutela judicial efectiva, el juez imparcial, la
libertad de expresión, el principio de inocencia, los bucles de criminalización
o la opacidad de decisiones, entre otras cuestiones.
Las
voces de alerta ya han tenido variada recepción. Por caso, la referida “Carta
Ética europea…” de 2018, indica la necesidad de respetar los principios de
respeto de los derechos humanos; calidad y seguridad; control del usuario;
transparencia, imparcialidad y equidad; y no discriminación. En nuestro país,
en setiembre de 2022, en el marco de un Congreso en el que se dedicó una
Comisión al tema del impacto de la IA en el derecho civil[6],
se aconsejó en las conclusiones que la regulación nacional debía hacerse bajo
criterios bastante similares: abordaje multi y transdisciplinar; contextualizar
el fenómeno en el respeto y defensa de los derechos humanos; atender al
pluralismo; respetar la dignidad de la persona; respetar los estándares de
recolección, transferencia y tratamiento de datos de perfilamiento; y
protección del perfil digital humano.
La
mencionada “Resolución del Parlamento Europeo de 6 de octubre de 2021 sobre la
IA en el Derecho Penal y su utilización por las autoridades policiales y
judiciales en asuntos penales” ha señalado que los sistemas de IA que se usen
deben ser fiables y que tal estándar debe verificarse aunque la información
provenga de apps de IA aprobadas en terceros países; que las apps deben ser
plurales desde el diseño (esto quiere decir, no discriminatorias, seguras,
transparentes, explicables y respetar la autonomía humana y los derechos
fundamentales); y, finalmente, que tanto la policía como la justicia deben usar
apps con respeto del mismo estándar, de lo que resulta garante el Estado.
4. Provisorias conclusiones.
Para cerrar, me parece
oportuno insistir en aquello de “ni fobia, ni euforia” y señalar que es central
no perder de vista que el derecho penal interviene, con límites, después del
delito. En este sentido, la mencionada Resolución Europea llama la atención
sobre la necesidad que el uso de la IA en materia penal no se aparte de principios
básicos que ha costado enorme esfuerzo sentar como básicos en los modernos
estados de derecho. Podría pensarse que tal vez no fuera preciso al momento
actual de nuestro desarrollo como sociedades. Sin embargo, participo de la idea
de que nunca está de más recordarlos, evitar que se pierdan de vistan. No puede
negarse que es probable que algunos de ellos sufran modificaciones (que
pretendemos sean las mínimas posibles), que no permanezcan inalterados, alguna
mella, algún esmerilamiento habrá. Y ello sería tolerable en la medida que no
afecte su esencia, que no pierdan centralidad.
En fin, que la regulación
que logremos debe observar respeto por las ideas de que no puede consagrarse un
derecho penal de autor, que negamos el avance del estado de policía, que
decimos no al peligrosismo y que aún cuando fuera técnicamente viable no puede
habilitarse una vigilancia masiva ilimitada. En síntesis, que la razón de
eficacia no legitima el olvido del sistema de garantías penales construido
sobre siglos de sangre. Siendo esto así, no albergo dudas en torno a que las
apps de IA que colisionen con los derechos fundamentales deben directamente ser
prohibidas.
5. Material consultado
Álvarez Larrondo,
Federico M.: “El nuevo Derecho
Artificial. Desafíos para el Derecho en general”, pub. en AAVV
“Inteligencia Artificial y Derecho”, bajo su propia dirección, Ed. Hammurabi,
Bs.As., 2020.
Corvalán, Juan
G.-Ciraudo, Denise: “Inteligencia
artificial al servicio de la justicia penal, contravencional y de faltas.
Prometea en el ámbito de la ciudad de Buenos Aires”, pub. en AAVV
“Cibercrimen II”, dirigido por Daniela Dupuy y coordinado por Mariana Kiefer,
ed. BdeF, Montevideo-Bs.As., 2018.
Costa, Flavia: “Tecnoceno.
Algoritmos, biohackers y nuevas formas de vida”, Taurus, CABA, 2021.
Danesi, Cecilia C.: “Presentación de la colección” e “Inteligencia artificial y Derecho”, pubs. en AAVV “Inteligencia
artificial, tecnologías emergentes y derecho”, dirigida por Danesi, Vol. 1.,
1ª Edición, Hammurabi, Bs.As., 2020.
Dupuy, Daniela S.: “Inteligencia artificial aplicada al derecho
penal y procesal penal”, pub. en AAVV “Cibercrimen II”, dirigido por D.
Dupuy y coordinado por M. Kiefer, ed. BdeF, Montevideo-Bs.As., 2018; "Inteligencia artificial y tecnologías
disruptivas en el proceso penal”, pub. en AAVV “Inteligencia artificial,
tecnologías emergentes y derecho”, dirigido por Cecilia C. Danesi, Vol. 1,
Hammurabi, 2020.
Haissiner, Martín D.
– Pastor, Daniel R.: “Neurociencias,
tecnologías disruptivas y tribunales digitales”, ed. Hammurabi, Bs.As.,
2019.
Han, Byung-Chul: “La emergencia viral y el mundo de mañana”,
pub. original en el diario “El País”, edición del 20/3/2020, rep. en AAVV “Sopa
de Wuhan. Pensamientos contemporáneos en tiempos de pandemias”, ed. ASPO, La
Plata, Argentina, marzo de 2020, disponible en https://www.elextremosur.com/files/content/23/23684/sopa-de-wuhan.pdf.
Harari, Yuval Noah: “De animales a dioses. Breve historia de la
humanidad”, Debate, Penguin Random House Grupo Editorial, Bs.As., 21º
edición, 2020; “Homo Deus. Breve historia
del mañana”, Debate, PRHGE, Bs.As., 2018; “21 lecciones para el siglo XXI”, Debate, Penguin Random House
Grupo Editorial, Bs.As., 3º edición, 2018; “El
mundo después del coronavirus”, versión en español trad. por Juan Gabriel
López Guix, pub. en “La Vanguardia”, edición del 5 de abril de 2020, disponible
en https://www.lavanguardia.com/internacional/20200405/48285133216/yuval-harari-mundo-despues-coronavirus.html
O’Neil, Cathy: “Armas de destrucción matemática. Cómo el
Big Data aumenta la desigualdad y amenaza la democracia”, trad. de Violeta
Arraz de la Torre, Ed. Capitán Swing, Madrid, España, 2018.
Palacios, Leonardo
P.: “Derechos Humanos e Inteligencia
Artificial”, pub. en AAVV
“Inteligencia Artificial y Derecho”, dirigido por Federico M. Álvarez
Larrondo, Ed. Hammurabi, Bs.As., 2020.
Picotti, Lorenzo: “The
challenges of new technologies for European criminal law”, pub. en AAVV “Of
swords and shields: due process and crime control in times of globalization. Liber amicorum prof. dr. J.A.E. Vervaele”, ed.
Eleven/Pompe Reeks, La Haya, Países Bajos, 2023, págs. 805/814.
Ramonet, Ignacio: “Coronavirus: la pandemia y el
sistema-mundo”, versión digital disponible en el sitio web del “Instituto
Argentino para el Desarrollo Económico” (IADE), en http://www.iade.org.ar/system/files/coronavirus_la_pandemia_y_el_sistema-mundo.pdf
Riquert, Marcelo A.: “La pandemia del COVID-19: ¿instalando el Coronoptikón?”, pub. en AAVV
“Libro homenaje al Profesor Luis Arroyo Zapatero. Un derecho penal humanista”,
Rosario de Vicente Martínez, Diego Gómez Iniesta, Teresa Martín López, Marta
Muñoz de Morales Romero y Adán Nieto Martín editores, BOE/UCLM, Madrid, 2021,
tomo 1, págs. 615/634; “Inteligencia
artificial y derecho penal”, prologado por E. Raúl Zaffaroni, Ediar,
Bs.As., 2022; “Algoritmos, predicción
criminal y debido proceso”, pub. en AAVV “Impacto da jurisprudencia
interamericana nas garantías processuais. Um diálogo Argentina-Brasil”, Claudio
José Langroiva Pereira-Fabián Luis Riquert-Luiz Guilherme Arcaro Conci
coordinadores, Editora Quartier Latin do Brasil, São Paulo, 2022, págs. 49/76;
“Inteligencia
artificial, falsas noticias y discursos de odio: entre la libertad de expresión
y la persecución penal”, pub. en
revista “Derecho Penal Contemporáneo”, ed. Legis, Bogotá, Colombia, N° 81,
octubre/diciembre de 2022, págs. 25/47; también en la “Revista Ultracontinental
de Literatura Jurídica”, Montes Claros, Minas Gerais, Brasil, Vol. 3, Nº 3,
setiembre/diciembre de 2022, págs. 180/197; versión sintética “Inteligencia artificial, falsas noticias y
discursos de odio”, pub. en AAVV “Of swords and shields: due process and
crime control in times of globalization. Liber amicorum prof. dr. J.A.E.
Vervaele”, ed. Eleven/Pompe Reeks, La Haya, Países Bajos, 2023, págs. 815/823.
Sueiro, Carlos Christian: “Vigilancia electrónica asistida por inteligencia
artificial (IA)”, Hammurabi, Buenos
Aires, 2020; “La inteligencia
artificial aplicada a la vigilancia electrónica de personas en la pandemia
COVID-19”, pub. en AAVV “Derecho Penal y Pandemia. XX Encuentro de la AAPDP.
Homenaje al Prof. Julio B.J. Maier”, Ediar, Bs.As., 2021, págs. 265/289.
Zuboff, Shoshana: “La era del capitalismo de la vigilancia. La
lucha por un futuro humano frente a las nuevas fronteras del poder”, trad.
de Albino Santos, ed. Paidós, colección “Estado y Sociedad”, Barcelona, España,
2020
[1]
El texto corresponde a la ponencia presentada en el “Coloquio Internacional:
Inteligencia artificial y administración de justicia, la policía y la justicia
predictiva”, organizado por el Grupo Argentino de la AIDP y celebrado en el
Salón Azul de la Facultad de Derecho de la Universidad de Buenos Aires, del 28
al 31 de marzo de 2023. La exposición integró la Mesa Redonda “IA en la
actualidad Argentina”, realizada el 29 de marzo e integrada además por los
Profs. Nora Cherñavsky y Carlos Christian Sueiro. Se ha mantenido en lo posible
la exposición original, agregando al final un listado de la principal
bibliografía consultada para su elaboración. Similar presentación se hizo previamente en la Facultad de Derecho de Ciudad Real, Universidad de Castilla-La Mancha (España), en el marco del Seminario internacional "Iinteligencia artificial (IA) y sistema penal", coorganizado por la Escuela de Ingeniería Informática y el Instituto de Derecho Penal Europeo e Internacional, celebrado el 16 de marzo de 2023. El desarrollo en extenso se ha
concretado en la obra “Inteligencia artificial y derecho penal”, prologada por E. Raúl
Zaffaroni, Ediar, Bs.As., 2022, 308 páginas.
[2]
Director del Área Departamental Penal de la Facultad de Derecho de la
Universidad Nacional de Mar del Plata (Argentina). Ex Presidente de la
Asociación Argentina de Profesores de Derecho Penal. Miembro del Grupo
Argentino de la AIDP.
[3]
Me refiero a la conocida como “Conferencia de Dartmouth” por haberse celebrado
en el Dartmouth College, en Hanover, New Hampshire, Estados Unidos, durante el
verano de 1956, tras una propuesta en setiembre de 1955 elaborada por John
McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon. Duró 6 semanas y
tuvo un total de 11 particpantes.
[4]
Valga recordar sobre el particular la importancia del “Plan de Acción de Rabat”
(ACNUDH), que propende se haga la valoración siguiendo parámetros vinculados al
contexto, orador, extensión, intención, probabilidad/inminencia y
contenido/formas.
[5]
Destaco en este sentido la
presentación del doctorando Andrés Montoro Montarroso, ya que el desarrollo es
parte de su tesis, que avanza dirigida por los Catedráticos Dres. José Angel
Olivas Varela (Informática) y Adán Nieto Martín (Derecho).
[6]
Me refiero a las XXVIII Jornadas
Nacionales de Derecho Civil, celebradas en Mendoza del 22 al 24 de setiembre de
2022, durante las que la Comisión Nº 10 se dedicó a “Transdisciplina,
Inteligencia Artificial, mercado y ética”, bajo presidencia de los Dres. Andía
y Molina Quiroga y vicepresidencia de los Dres. Adaro, Corvalán y Santarelli.
No hay comentarios:
Publicar un comentario