lunes, 15 de mayo de 2023

INTELIGENCIA ARTIFICIAL Y DERECHO PENAL: REALIDADES Y PROYECCIONES

 

Inteligencia artificial y derecho penal: realidades y proyecciones[1]

Por Marcelo A. Riquert[2]

 

Sumario: 1. Notas introductorias. 2. Inteligencia artificial y su consideración jurídica. 3. IA y derecho penal: problemas fondales y procesales. 4. Provisorias conclusiones. 5. Material consultado

 

1. Notas introductorias

            Asistimos en la actualidad a lo que muchos definen como el comienzo de la cuarta revolución industrial, signada por el surgimiento o avances significativos en áreas tales como la nanotecnología, la biotecnología, el cloud computing, la impresión en 3D, la big data y, por supuesto, la inteligencia artificial (en adelante, IA). La aparición de la máquina a vapor había signado a la primera, en el siglo XVIII; la electricidad y el fordismo moldearon la segunda en el siglo XIX, mientras que el siglo pasado fue atravesado por dos guerras mundiales entre las que hubo la gran depresión y, en lo tecnológico, ofreció, entre otras cosas, la energía nuclear (que dio por terminada la segunda gran guerra y fue factor decisivo para la instalación de llamada “guerra fría”) y el geométrico crecimiento de las llamadas tecnologías de la información y comunicación (TICs). Así la tercera revolución industrial marcó sus últimas décadas signadas por la “globalización”. Para el derecho penal esta fenomenología llevó a una larga discusión acerca de la posibilidad o no de procesar la conflictividad inherente con las herramientas del derecho penal clásico o “nuclear” (así, la escuela de Frankfurt) o si resultaba necesario un nuevo derecho penal cuando ya no se trata simplemente de bienes jurídicos individuales sino macrosociales, autores que no sólo son personas físicas sino también jurídicas y técnicas de tipificación en que el resultado no es un daño (debemos prevenirlo) sino un peligro.

            Mientras en la tercera revolución industrial, frente a las conductas disvaliosas realizadas por medio de las TICs nos preguntábamos si había “delitos informáticos” o, por su influencia como factor criminógeno, “delincuencia informática; la cuarta, como no puede ser de otro modo, nuevamente detrás del cambio tecnológico, nos encuentra planteándonos qué hacer con lo que sucede en el “metaverso” (nuevo espacio digital inmersivo e interactivo para la conflictividad humana) y si regulamos y cómo lo hacemos a la IA, justamente objeto de esta reunión.

            Cuando se sostiene el pasaje del “antropoceno” al “tecnoceno” (cf. Flavia Costa), estamos viviendo en la que se define como la “sociedad de la información” y si nos preguntamos por cuánta información hay acumulada el aserto se revela acertado cuando el volumen se tiene que medir en zetabytes (un uno seguido de veintiún ceros). Dos datos que por “viejos” no pierden elocuencia: 1) entre 2014 y 2017 lo digitalizado equivale a todo lo acumulado desde la prehistoria hasta 2014; 2) hasta 2015 se habían reunido 5 zetabytes que, visibilizados en papel, equivalen a 4500 pilas de libros hasta el sol.

            La tecnología sigue esparciéndose por el mundo a ritmo acelerado. Desde 2020 la población del planeta creció un 4% (pasamos de 7700 millones a 8000 millones de personas), lapso en que la conectividad con Internet lo hizo el 8% llegando a un total de unos 5100 millones de individuos (68% del total mundial) y el uso de redes sociales subió un 9,4%, interactuando en ellas unos 4760 millones de usuarios (59,4% del mismo total). Por supuesto, esto se da con marcadas asimetrías cuyos extremos eran en 2020 Emiratos Árabes Unidos, con el 99% de su población conectada, y Burundi, con sólo el 7%. Siendo las cifras de crecimiento impactantes y, aunque en ámbitos como en el que ahora mismo estamos reunidos, podemos sentir que todos participamos del mismo fenómeno, lo cierto es que todavía el 40% de los terrestres no viven su vida en contacto con las redes sociales, fuera de sus beneficios y también de su toxicidad; y el 30% no tiene acceso permanente, estable, a Internet.

            De revés, el 70%, en forma más o menos directa, estamos viviendo lo que Zuboff denomina como la era del capitalismo de la vigilancia, la Internet de las cosas y el mercado de los futuros conductuales, y que Rouvroy y Berns llaman la “gubernamentalidad algorítmica”. Pasamos de la inteligencia de las máquinas a casas inteligentes donde todo lo que hacemos se registra por nuestros proveedores, lo que permite no sólo predecir sino también orientar nuestra conducta futura pero no en nuestro propio beneficio sino el de otros, profundizando el instrumentarismo. Y los proveedores, tanto en occidente como en oriente, son un acotadísimo número de jugadores que Amy Webb definió como los “Big 9”: de un lado Google, Microsoft, Apple, Facebook, IBM y Amazon (GMAFIA); del otro, Baidú, Alibaba y Tencent (BAT). Otros ofrecen mínimos cambios y sintetizan en GAM(F)A (Google, Apple, Meta –Facebook- y Amazon) y BATX (Baidú, Alibaba, Tencent y Xiami). Si bien una mirada sesgada y superficial parece inquietar a occidente ante el “programa del buen ciudadano” de China, simplificando, la realidad es que la operatividad de los grupos no ofrece diferencias significativas porque de este lado del mundo también la información algorítimicamente procesada determina si nos dan o no un crédito, si accedemos o no a un trabajo, si somos objeto de cancelación social o no. En fin, lo que llevó a que Cathy O’Neil se refiriera a los algoritmos como “máquinas de destrucción matemática”.

            Podríamos advertir que una diferencia palpable comienza a mostrar Europa, primero con su “Carta Ética Europea sobre el uso de la IA en los sistemas judiciales y su entorno” (2018), más su Res. de 6/10/21, y luego, de mayor amplitud, cuando el año pasado promovió leyes para la transparencia digital, como la Ley de Servicios Digitales y la Ley de Mercados Digitales. Se procura con ellas que se alcancen estándares mínimos de transparencia digital por las tecnológicas con más de 45.000.000 de usuarios, es decir, las que importan: Google, Meta, Instagram, Twitter, Amazon.

            Los ostensibles progresos en el desarrollo de dispositivos de interfaz entre cerebro y computadora, tanto externos como invasivos, junto a los descubrimientos en materia de neurociencias, detrás de lo que está tanto la empresa privada (por ejemplo, Neurolink, de Elon Musk, o Facebook) o los estados (China), han provocado que comencemos a hablar de “neuroderechos”. En el proyecto “Brain” de Rafael Yuste (Universidad de Columbia) se identifican cinco: privacidad mental, identidad personal, libre albedrío, aumento de la neurocognición y protección respecto de los sesgos. Otro integrante de este mismo panel, el Dr. Sueiro, ha mencionado la discusión en torno a la necesidad de futuras tipificaciones de conductas como el acceso ilegítimo a la mente de una persona por medio de un dispositivo de interface cerebro-computadora (ICC) o el apoderamiento de información mediante un dispositivo de ICC.

            Es importante no perder de vista todo este contexto y, retomando la ineludible nota de una regulación jurídica que va por detrás de los acontecimientos, parece oportuno señalar la coincidencia con la propuesta de Haissiner y Pastor: “frente la tecnología, ni fobia ni euforia”.

 

2. Inteligencia artificial y su consideración jurídica

            En la pasada década de los noventa Ulrich Sieber nos decía que los avances en las tecnologías de la información y comunicación habían ofrecido como consecuencia cuatro oleadas de reforma legal: 1º) la protección de la privacidad en los setenta; 2º) la represión de los delitos económicos por ordenadores en los ochenta; 3º) contemporánea, la protección de la propiedad intelectual en la informática; y, 4º) la reforma procesal para el tratamiento de la evidencia digital en los noventa. Hemos agregado una quinta oleada a comienzos del actual milenio de la mano de la instalada lucha contra el enemigo terrorista derivada de los ataques del 9/11, popularizándose la discusión en torno al hacktivismo y el ciberterrorismo. Poco después, los avances en materia de IA y el avance de la Internet de las cosas nos enfrentan a nuevos desafíos jurídicos y crece la consideración de una suerte de sexta ola que comienza a tener reflejo en los estudios de grado, observándose en los más recientes programas de estudios de la carrera de abogacía que se incorporan materias como “IA y derecho” o “Derecho Artificial” (denominación la última que no me parece muy feliz).

            Ha pasado mucho desde aquella inicial reunión en Dartmouth (1956) para responder al interrogante: ¿es posible que una máquina simule la inteligencia humana?[3]. La imagen de los científicos de distintas áreas del conocimiento reunidos bajo aquella premisa basta para contestar otra pregunta de suma pertinencia como es si los algoritmos son asépticos o ideologizados, alternativa que decanta con claridad hacia lo último. La fotografía muestra palmarias subrepresentaciones en lo racial, etario y género. Podría contra-argumentarse que hoy no sería exactamente igual y es cierto, no lo sería porque habría algunos cambios en los porcentajes de representación pero no serían realmente significativos en términos de pertenencia cultural.

            Si tomamos como válida la definición que se proporcionara en los cuestionarios recibidos de AIDP para producir los informes nacionales, se entiende por IA un sistema que muestre un comportamiento inteligente al analizar su entorno y adopte cursos de acción, con cierto grado de autonomía, para lograr objetivos específicos (Picotti). Para entender dónde estamos parados, respecto de qué discutimos cuál debe ser la consideración jurídica, es conveniente recordar que se suele distinguir entre la IA débil o estrecha, la promedio o general y la suerte o súper IA. La débil refiere a los sistemas informáticos que permiten que el aprendizaje automático realice una tarea específica. La promedio a los que tienen capacidad de comprensión para cualquier tarea. La fuerte a los que exceden la capacidad de los seres humanos.

            ¿Dónde estamos parados hoy? Según se puede leer con consenso, todavía en la débil o estrecha. Tal limitación, valga la insistencia, no elude el problema general de ser útil para amplificar, potenciar y replicar rasgos negativos. Valga como ejemplo el uso de algoritmos para difundir y multiplicar los discursos de odio, de inquietante actualidad.

            ¿Y qué se está haciendo? Desde su sede de París, la Organización para la Cooperación y el Desarrollo Económico (OCDE), que reúne en la actualidad a 42 naciones, entre ellas, Argentina, ha creado un Consejo sobre IA. Se discuten dos modelos para regular la IA: 1) normas verticales, sectoriales y específicas; 2) regulación transversal por tipo de tecnología. También dos modelos de control: a) un órgano guardián de IA (por ejemplo, en Argentina hay un proyecto de ley en trámite para un Consejo Federal de IA); b) consejos de seguridad sectoriales. Los problemas que deben ser tenidos en cuenta: a) la caja negra (transparencia de los sistemas); b) los sesgos en los algoritmos; c) la ética de la selección (¿es lo mismo perseguir el terrorismo que enfrentar una crisis sanitaria como la pandemia por el COVID-19?); d) el manejo de la información.

            En lo que hace específicamente a lo penal, es de interés mencionar otra vez a la “Res. del Parlamento Europeo de 6 de octubre de 2021 sobre la IA en el Derecho Penal y su utilización por las autoridades policiales y judiciales en asuntos penales”. Allí se resalta que la IA ofrece tanto posibilidades como riesgos extraordinarios, que no es un fin en sí misma sino un instrumento al servicio de las personas. Se enfatiza que el objetivo debe ser aumentar el bienestar, capacidad y seguridad humanos. Y advierte que su uso en el ámbito del derecho penal se basa en la promesa no siempre cumplida de reducir la criminalidad.

            No hay naturalmente espacio en esta ponencia de explorar la totalidad del universo de alternativas que ofrece la IA al presente y, con la velocidad que se suceden las novedades, ciertamente es casi imposible estar actualizado. Entre las principales ramas de la IA suele mencionarse al machine learning, el diseño de sistemas expertos, la visión artificial, el reconocimiento del habla, la planificación automática, la robótica y el procesamiento de lenguaje natural. En esta última proliferan las noticias a partir del impacto que Open IA ha logrado a fines del año pasado y comienzos del presente con su “ChatGPT” (Chat Generativo Preentrenado Transformador). Hace unos días los diarios publicaban que un juez colombiano había dictado una sentencia asistido por el ChatGPT. Con lógica curiosidad, comencé a experimentar con esta herramienta que el Dr. Ingeniero Informático José Angel Olivas Varela (UCLM-Ciudad Real) caracterizó recientemente como un “Google anabolizado”, lo hice planteándole la necesidad de hacer un escrito de eximición de prisión. Brindé los datos básicos y en segundos tuve la propuesta de escrito en el que se habían incorporado algunos argumentos pertinentes que yo no había proporcionado. El ChatGPT había consignado que el imputado no tenía antecedentes penales y que tenía arraigo domiciliario y familiar que le servirían de contención. Así, por un lado, reveló que tenía en cuenta factores de interés para la decisión que se solicitaba; por el otro, “inventó” datos de los que, en realidad, no disponía. Déficit manifiesto fue la falta de indicación normativa para fundar el pedido. A través de varias correcciones, finalmente obtuve un escrito en condiciones de ser presentado. Mi conclusión personal sintética: mejor que mi expectativa inicial, pero lejos todavía de ofrecer un escrito listo para usarse (¿por cuánto tiempo?, sería la pregunta subsiguiente).

            Además, le pedí que me ayudara a preparar esta conferencia interrogándole sobre la utilidad de la IA para cometer delitos. La reconoció y mencionó como ejemplo de una aplicación maliciosa de la IA la creación de programas de phishing o malware. Enumero varios posibles delitos en que sería de ayuda: fraude financiero, ataques informáticos, espionaje y vigilancia ilegal, abusos online y discursos de odio (sobre los últimos volveré después).

            También aclaró que la IA no es ni buena ni mala sino una herramienta neutral que puede ser usada para fines positivos o negativos dependiendo la voluntad del usuario. En el primer sentido ejemplificó que la IA puede ser utilizada para detectar delitos, para mejorar la seguridad de los sistemas y la privacidad online.

            En  términos del posible uso para detectar delitos no puedo dejar de señalar que, en ocasiones, puede ofrecer una nueva gama de problemas desde el punto de vista penal. Así, la Universidad de Deusto ha desarrollado un negobot (Lolita), que opera cual suerte de agente provocador online para detectar pedófilos y la distribución de material de abuso sexual infantil. “Lolita” interactúa simulando ser una niña con los potenciales ofensores sexuales, que creen estar ante una joven real a la que procuran engañar para perpetrar su criminal designio. La utilidad, indudable. Que acarrea todos los problemas y discusiones inherentes al uso y límites de la provocación, también indudable.

            Si retomamos el tema de los discursos de odio, la IA se suele asociar tanto como un factor potenciador negativo, facilitando su reproducción y multiplicación, como una herramienta fundamental para su detección y prevención. En marzo de 2023, en el seminario internacional “Inteligencia Artificial y Sistema Penal”, celebrado en la Facultad de Derecho y Ciencias Sociales de Ciudad Real, Universidad de Castilla-La Mancha, coorganizado por su Escuela de Ingeniería Informática y el Instituto de Derecho Penal Europeo e Internacional, se mostraron los avances un proyecto conjunto entre ambas áreas para la detección y evaluación (valoración jurídica) de estos discursos online[4], bajo apropiados estándares de transparencia[5]. Retomando la consulta con el ChatGPT, justamente indicó como opciones preventivas que una IA puede desarrollar en la prevención del discurso de odio a la detección automática de contenidos ofensivos, su monitorización en tiempo real, el análisis de tendencias y patrones en la publicación y, finalmente, la generación de contenidos alternativos que promuevan la tolerancia y la inclusión.

            No es esta la ocasión para profundizar sobre esta temática pero sí luce oportuna su mención cuando se habla sobre si regular y cómo hacerlo lo vinculado con la IA, en particular porque se trata de una temática en que la tensión entre la libertad de expresión y los límites generales de prohibición han mostrado cómo la adopción de modelos contrapuestos ha entorpecido el avance en la materia. En efecto, pueden observarse en nuestra esfera de referencia cultural, es decir, occidente, que cohabitan dos modelos para regular los discursos de odio y las fake news: de un lado el estadounidense, que propicia al máximo la libertad de expresión y trabaja bajo premisa de inexistencia de censura previa y responsabilidad posterior por daño (sería el que sigue Argentina conforme dejan en claro diversos precedentes de la CSJN como Rodríguez, Gimbutas, Paquez y, el último, Denegri –cuando se trató la cuestión del derecho al olvido-); del otro, el que procura evitar la producción del daño y, por lo tanto, implementa la censura previa, lo que se ha visto en forma restringida a cuestiones electorales en reciente normativa francesa y alemana. En síntesis, que el ejemplo es demostrativo que no basta con acordar sobre la necesidad de regular, sino que lo más difícil es acercar posiciones acerca de cómo hacerlo.

 

3. IA y derecho penal: problemas fondales y procesales

            Yendo a la específica vinculación entre la IA y el derecho penal, puede decirse que media cierto grado de consenso en que se han detectado problemas tanto en lo atinente a la rama sustantiva como la adjetiva del último. Las áreas en que se focalizan puede sistematizarse del siguiente modo: a) tecnología de predicción criminal (aquí, por ejemplo, lo relativo a la vigilancia predictiva y los sistemas de reconocimiento facial, por voz, etc.); b) agentes autónomos o artificiales (hay numerosas cuestiones relativas a la autoría y participación criminal por los resultados disvaliosos cometidos por autos de conducción autónoma y drones tanto de uso civil como militar); c) pandemia y control sanitario (el COVID-19 dio lugar a un uso intensivo de la IA tanto para la prevención y tratamiento, como para la instalación de la cibervigilancia); d) gestión judicial (en particular, el apoyo de decisiones sobre la base de la valoración algorítmica de riesgos).

            Por tomar solo un ejemplo, baste tener presente la extensión que ha alcanzado la vigilancia tecnológica del espacio público (y sus posibilidades de avance en el privado), siendo probablemente extremos la desarrollada en las grandes ciudades chinas por intermedio de la compañía SenseTime o la proliferación de cámaras londinense. Harari ha señalado que la cibervigilancia se presentó para la pandemia del coronavirus como una suerte de “solucionismo tecnológico” que importó el pasaje de la que calificó como “epidérmica” (big data sobre datos sensibles y geolocalización) hacia la que llama “hipodérmica” (por su profundización a partir del uso de los datos biométricos). Resaltó que en aquel contexto la IA sirvió tanto para combatir la infodemia y prevenir y contener contagios, como para instalar una suerte de lo que podría llamarse “coronoptikón” (así, Ramonet), un panóptico a propósito del coronavirus.

            No puede soslayarse que, en la actualidad, en los países más desarrollados pero también en los que no lo son –aunque probablemente con menos intensidad y calidad de medios- ya se usan o están disponibles numerosas “apps” de IA para el uso policial. Sin pretensión de exhaustividad pueden mencionarse: 

            a) Reconocimiento facial (en Argentina, implementada por ejemplo en CABA y Mendoza);

            b) Reconocimiento de matrículas (ídem, en CABA)

            c) Identificación por voz y reconocimiento del habla (en uso por el MPF de la CABA, con el sistema “Prometea”);

            d) Reconocimiento de temperatura (por el Covid, múltiples puntos de uso en estaciones de transporte público, aeropuertos, grandes centros comerciales, etc.);

            e) Tecnología de lectura de labios y vigilancia auditiva (algunos sistemas de cámaras de vigilancia del espacio público en CABA tienen posibilidad de hacer tomas de sonidos por un tiempo limitado);

            f) Análisis autónomo de bases de datos no identificadas;

            g) Predicción de puntos críticos delictivos (hot spots)

            f) Detección de comportamientos (en la localidad bonaerense de Tigre, hay un sistema que detecta patrones de recorrido);

            g) Herramientas de autopsia virtual;

            h) Herramientas para detección de fraudes financieros y financiación del terrorismo;

            i) Forensia sobre dispositivos electrónicos: UFED (Universal Forensic Extraction Device).

            ¿Cuáles son los riesgos de estas herramientas? En general, se suele mencionar que, al menos todavía, exhiben variables grados de fiabilidad y precisión lo que traduce en resultados con distintos porcentajes de errores o falsos positivos. Pero no es todo y, quizá, tampoco lo más importante. En efecto, no hay dudas que en poco tiempo mejorarán y los yerros serán mínimos. El problema más significativo es y seguirá siendo la repercusión sobre los derechos fundamentales, lo que abarca un amplio prisma en el que se incluyen desde los sesgos y la discriminación, hasta la tutela judicial efectiva, el juez imparcial, la libertad de expresión, el principio de inocencia, los bucles de criminalización o la opacidad de decisiones, entre otras cuestiones.

            Las voces de alerta ya han tenido variada recepción. Por caso, la referida “Carta Ética europea…” de 2018, indica la necesidad de respetar los principios de respeto de los derechos humanos; calidad y seguridad; control del usuario; transparencia, imparcialidad y equidad; y no discriminación. En nuestro país, en setiembre de 2022, en el marco de un Congreso en el que se dedicó una Comisión al tema del impacto de la IA en el derecho civil[6], se aconsejó en las conclusiones que la regulación nacional debía hacerse bajo criterios bastante similares: abordaje multi y transdisciplinar; contextualizar el fenómeno en el respeto y defensa de los derechos humanos; atender al pluralismo; respetar la dignidad de la persona; respetar los estándares de recolección, transferencia y tratamiento de datos de perfilamiento; y protección del perfil digital humano.

            La mencionada “Resolución del Parlamento Europeo de 6 de octubre de 2021 sobre la IA en el Derecho Penal y su utilización por las autoridades policiales y judiciales en asuntos penales” ha señalado que los sistemas de IA que se usen deben ser fiables y que tal estándar debe verificarse aunque la información provenga de apps de IA aprobadas en terceros países; que las apps deben ser plurales desde el diseño (esto quiere decir, no discriminatorias, seguras, transparentes, explicables y respetar la autonomía humana y los derechos fundamentales); y, finalmente, que tanto la policía como la justicia deben usar apps con respeto del mismo estándar, de lo que resulta garante el Estado.

 

4. Provisorias conclusiones.

            Para cerrar, me parece oportuno insistir en aquello de “ni fobia, ni euforia” y señalar que es central no perder de vista que el derecho penal interviene, con límites, después del delito. En este sentido, la mencionada Resolución Europea llama la atención sobre la necesidad que el uso de la IA en materia penal no se aparte de principios básicos que ha costado enorme esfuerzo sentar como básicos en los modernos estados de derecho. Podría pensarse que tal vez no fuera preciso al momento actual de nuestro desarrollo como sociedades. Sin embargo, participo de la idea de que nunca está de más recordarlos, evitar que se pierdan de vistan. No puede negarse que es probable que algunos de ellos sufran modificaciones (que pretendemos sean las mínimas posibles), que no permanezcan inalterados, alguna mella, algún esmerilamiento habrá. Y ello sería tolerable en la medida que no afecte su esencia, que no pierdan centralidad.

            En fin, que la regulación que logremos debe observar respeto por las ideas de que no puede consagrarse un derecho penal de autor, que negamos el avance del estado de policía, que decimos no al peligrosismo y que aún cuando fuera técnicamente viable no puede habilitarse una vigilancia masiva ilimitada. En síntesis, que la razón de eficacia no legitima el olvido del sistema de garantías penales construido sobre siglos de sangre. Siendo esto así, no albergo dudas en torno a que las apps de IA que colisionen con los derechos fundamentales deben directamente ser prohibidas.

 

5. Material consultado

Álvarez Larrondo, Federico M.: “El nuevo Derecho Artificial. Desafíos para el Derecho en general”, pub. en AAVV “Inteligencia Artificial y Derecho”, bajo su propia dirección, Ed. Hammurabi, Bs.As., 2020.

Corvalán, Juan G.-Ciraudo, Denise: “Inteligencia artificial al servicio de la justicia penal, contravencional y de faltas. Prometea en el ámbito de la ciudad de Buenos Aires”, pub. en AAVV “Cibercrimen II”, dirigido por Daniela Dupuy y coordinado por Mariana Kiefer, ed. BdeF, Montevideo-Bs.As., 2018.

Costa, Flavia: “Tecnoceno. Algoritmos, biohackers y nuevas formas de vida”, Taurus, CABA, 2021.

Danesi, Cecilia C.: “Presentación de la colección” e “Inteligencia artificial y Derecho”, pubs. en AAVV “Inteligencia artificial, tecnologías emergentes y derecho”, dirigida por Danesi, Vol. 1., 1ª Edición, Hammurabi, Bs.As., 2020.

Dupuy, Daniela S.: “Inteligencia artificial aplicada al derecho penal y procesal penal”, pub. en AAVV “Cibercrimen II”, dirigido por D. Dupuy y coordinado por M. Kiefer, ed. BdeF, Montevideo-Bs.As., 2018; "Inteligencia artificial y tecnologías disruptivas en el proceso penal”, pub. en AAVV “Inteligencia artificial, tecnologías emergentes y derecho”, dirigido por Cecilia C. Danesi, Vol. 1, Hammurabi, 2020.

Haissiner, Martín D. – Pastor, Daniel R.: “Neurociencias, tecnologías disruptivas y tribunales digitales”, ed. Hammurabi, Bs.As., 2019.

Han, Byung-Chul: “La emergencia viral y el mundo de mañana”, pub. original en el diario “El País”, edición del 20/3/2020, rep. en AAVV “Sopa de Wuhan. Pensamientos contemporáneos en tiempos de pandemias”, ed. ASPO, La Plata, Argentina, marzo de 2020, disponible en https://www.elextremosur.com/files/content/23/23684/sopa-de-wuhan.pdf.

Harari, Yuval Noah: “De animales a dioses. Breve historia de la humanidad”, Debate, Penguin Random House Grupo Editorial, Bs.As., 21º edición, 2020; “Homo Deus. Breve historia del mañana”, Debate, PRHGE, Bs.As., 2018; “21 lecciones para el siglo XXI”, Debate, Penguin Random House Grupo Editorial, Bs.As., 3º edición, 2018; “El mundo después del coronavirus”, versión en español trad. por Juan Gabriel López Guix, pub. en “La Vanguardia”, edición del 5 de abril de 2020, disponible en https://www.lavanguardia.com/internacional/20200405/48285133216/yuval-harari-mundo-despues-coronavirus.html

O’Neil, Cathy: “Armas de destrucción matemática. Cómo el Big Data aumenta la desigualdad y amenaza la democracia”, trad. de Violeta Arraz de la Torre, Ed. Capitán Swing, Madrid, España, 2018.

Palacios, Leonardo P.: “Derechos Humanos e Inteligencia Artificial”, pub. en AAVV  “Inteligencia Artificial y Derecho”, dirigido por Federico M. Álvarez Larrondo, Ed. Hammurabi, Bs.As., 2020.

Picotti, Lorenzo: “The challenges of new technologies for European criminal law”, pub. en AAVV “Of swords and shields: due process and crime control in times of globalization. Liber amicorum prof. dr. J.A.E. Vervaele”, ed. Eleven/Pompe Reeks, La Haya, Países Bajos, 2023, págs. 805/814.

Ramonet, Ignacio: “Coronavirus: la pandemia y el sistema-mundo”, versión digital disponible en el sitio web del “Instituto Argentino para el Desarrollo Económico” (IADE), en  http://www.iade.org.ar/system/files/coronavirus_la_pandemia_y_el_sistema-mundo.pdf

Riquert, Marcelo A.: “La pandemia del COVID-19: ¿instalando el Coronoptikón?”, pub. en AAVV “Libro homenaje al Profesor Luis Arroyo Zapatero. Un derecho penal humanista”, Rosario de Vicente Martínez, Diego Gómez Iniesta, Teresa Martín López, Marta Muñoz de Morales Romero y Adán Nieto Martín editores, BOE/UCLM, Madrid, 2021, tomo 1, págs. 615/634; “Inteligencia artificial y derecho penal”, prologado por E. Raúl Zaffaroni, Ediar, Bs.As., 2022; “Algoritmos, predicción criminal y debido proceso”, pub. en AAVV “Impacto da jurisprudencia interamericana nas garantías processuais. Um diálogo Argentina-Brasil”, Claudio José Langroiva Pereira-Fabián Luis Riquert-Luiz Guilherme Arcaro Conci coordinadores, Editora Quartier Latin do Brasil, São Paulo, 2022, págs. 49/76; “Inteligencia artificial, falsas noticias y discursos de odio: entre la libertad de expresión y la persecución penal”, pub. en revista “Derecho Penal Contemporáneo”, ed. Legis, Bogotá, Colombia, N° 81, octubre/diciembre de 2022, págs. 25/47; también en la “Revista Ultracontinental de Literatura Jurídica”, Montes Claros, Minas Gerais, Brasil, Vol. 3, Nº 3, setiembre/diciembre de 2022, págs. 180/197; versión sintética “Inteligencia artificial, falsas noticias y discursos de odio”, pub. en AAVV “Of swords and shields: due process and crime control in times of globalization. Liber amicorum prof. dr. J.A.E. Vervaele”, ed. Eleven/Pompe Reeks, La Haya, Países Bajos, 2023, págs. 815/823.

Sueiro, Carlos Christian: “Vigilancia electrónica asistida por inteligencia artificial (IA)”, Hammurabi, Buenos Aires, 2020; “La inteligencia artificial aplicada a la vigilancia electrónica de personas en la pandemia COVID-19”, pub. en AAVV “Derecho Penal y Pandemia. XX Encuentro de la AAPDP. Homenaje al Prof. Julio B.J. Maier”, Ediar, Bs.As., 2021, págs. 265/289.

Zuboff, Shoshana: “La era del capitalismo de la vigilancia. La lucha por un futuro humano frente a las nuevas fronteras del poder”, trad. de Albino Santos, ed. Paidós, colección “Estado y Sociedad”, Barcelona, España, 2020

 



[1] El texto corresponde a la ponencia presentada en el “Coloquio Internacional: Inteligencia artificial y administración de justicia, la policía y la justicia predictiva”, organizado por el Grupo Argentino de la AIDP y celebrado en el Salón Azul de la Facultad de Derecho de la Universidad de Buenos Aires, del 28 al 31 de marzo de 2023. La exposición integró la Mesa Redonda “IA en la actualidad Argentina”, realizada el 29 de marzo e integrada además por los Profs. Nora Cherñavsky y Carlos Christian Sueiro. Se ha mantenido en lo posible la exposición original, agregando al final un listado de la principal bibliografía consultada para su elaboración. Similar presentación se hizo previamente en la Facultad de Derecho de Ciudad Real, Universidad de Castilla-La Mancha (España), en el marco del Seminario internacional "Iinteligencia artificial (IA) y sistema penal", coorganizado por la Escuela de Ingeniería Informática y el Instituto de Derecho Penal Europeo e Internacional, celebrado el 16 de marzo de 2023. El desarrollo en extenso se ha concretado en la obra “Inteligencia artificial y derecho penal”, prologada por E. Raúl Zaffaroni, Ediar, Bs.As., 2022, 308 páginas.

[2] Director del Área Departamental Penal de la Facultad de Derecho de la Universidad Nacional de Mar del Plata (Argentina). Ex Presidente de la Asociación Argentina de Profesores de Derecho Penal. Miembro del Grupo Argentino de la AIDP.

[3] Me refiero a la conocida como “Conferencia de Dartmouth” por haberse celebrado en el Dartmouth College, en Hanover, New Hampshire, Estados Unidos, durante el verano de 1956, tras una propuesta en setiembre de 1955 elaborada por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon. Duró 6 semanas y tuvo un total de 11 particpantes.

[4] Valga recordar sobre el particular la importancia del “Plan de Acción de Rabat” (ACNUDH), que propende se haga la valoración siguiendo parámetros vinculados al contexto, orador, extensión, intención, probabilidad/inminencia y contenido/formas.

[5] Destaco en este sentido la presentación del doctorando Andrés Montoro Montarroso, ya que el desarrollo es parte de su tesis, que avanza dirigida por los Catedráticos Dres. José Angel Olivas Varela (Informática) y Adán Nieto Martín (Derecho).

[6] Me refiero a las XXVIII Jornadas Nacionales de Derecho Civil, celebradas en Mendoza del 22 al 24 de setiembre de 2022, durante las que la Comisión Nº 10 se dedicó a “Transdisciplina, Inteligencia Artificial, mercado y ética”, bajo presidencia de los Dres. Andía y Molina Quiroga y vicepresidencia de los Dres. Adaro, Corvalán y Santarelli.

No hay comentarios: