lunes, 12 de agosto de 2024

IA Y DERECHO PENAL - 2º EDICIÓN AMPLIADA Y ACTUALIZADA

 

INTELIGENCIA ARTIFICIAL Y DERECHO PENAL, 2º EDICIÓN AMPLIADA Y ACTUALIZADA, AGOSTO DE 2024



PRESENTACIÓN DEL AUTOR A LA SEGUNDA EDICIÓN

           

            Relativamente muy poco tiempo después de la primera edición llegamos a una segunda ampliada en lugar de lo que parecería más razonable y habitual, que sería la reimpresión de un texto que solo tiene un par de años de antigüedad.

            Sin embargo, estamos frente a un tema en que los cambios por avances tecnológicos se suceden vertiginosamente. Mientras tanto, las novedades normativas siguen tramitándose con lento deambular y los proyectistas se sorprenden por la rapidez con que, cuando parece que llegamos a plasmar una propuesta de regulación con un grado de suficiente consenso, la fenomenología muta y el objeto de discusión asume otras características que los enfrenta a modificar el proyecto.

            Lo dicho no quita que en tiempos cercanos el panorama ofrezca noticias. Así, por ejemplo, luego de una elaboración que abarca ya cerca de un lustro, tras un proceso complejo que incluyó interconsultas con todos los sectores interesados[1], se avanzó con la “Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión”[2], que venía teniendo un favorable tratamiento en diversos organismos de la Unión Europea, circunstancia que alertaba sobre su inminente aprobación final, que se ha producido en marzo de 2024 (523 votos a favor, 46 en contra y 49 abstenciones)[3]. Si bien quedan pendientes algunos pasos formales como la última comprobación jurídica-lingüística, la aprobación definitiva tras el llamado procedimiento de corrección de errores, se prevé para antes del final del período legislativo. Luego, la ley también debe ser adoptada formalmente por el Consejo y entrará en vigor veinte (20) días después de su publicación.

            Conforme su texto, será de plena aplicación veinticuatro (24) meses después de su entrada en vigor, aunque hay una serie de excepciones que terminan conformando un sistema de vigencia escalonado. De tal suerte, las prohibiciones de prácticas tendrán una carencia de sólo seis (6) meses y para los códigos de buenas prácticas el plazo será de nueve (9) meses. Las normas sobre la IA de uso general, incluida la gobernanza esperarán doce (12) meses y las obligaciones para los sistemas de alto riesgo son las que tendrán el término más extenso, serán treinta y seis (36) meses.

            Se trata de un extenso documento que consta de un total de ciento ochenta (180) considerandos, que fundamentan y concretan en ciento trece (113) artículos y trece (13) “Anexos” que conforman un texto que en su presentación oficial en formato Word ocupa 459 páginas. Sólo el artículo 3, de las “definiciones”, incluye conceptos vinculados a 68 palabras/situaciones. Y, por supuesto, de inicio declara la necesidad de alfabetización en materia de IA (art. 4). Las principales líneas de acción anunciadas son: a) salvaguardias sobre la inteligencia artificial de uso general; b) límites al uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad; c) prohibición de la puntuación ciudadana y la IA usada para manipular o explotar las vulnerabilidades de los usuarios; d) derecho de los consumidores a presentar reclamaciones y recibir explicaciones.

            Se advierte entonces que el nuevo reglamento europeo asume postura en varios de los problemas que, en su momento, fueran abordados en el primer texto de esta obra, lo que en el nuevo será considerado. Mínimo anticipo, entre otras, no puede soslayarse que se adoptan prohibiciones para ciertas aplicaciones de IA que se ha entendido comprometen seriamente derechos fundamentales degradando la condición de ciudadano como, por ejemplo, las que implementan el reconocimiento de emociones en ámbito escolar o laboral, los sistemas de puntuación ciudadana (como el que se ha probado en China), la denominada actuación policial preventiva sobre base predictiva (excepto estrictos supuestos previstos), sistemas de categorización biométrica basados en características sensibles (salvo algunos casos en que bajo estricto resguardo se admiten en tiempo real con autorización judicial y administrativa, como sería para la prevención de un delito grave como el terrorismo) o las de reconocimiento facial indiscriminado ya sea en internet o por medio cámaras de vigilancia en espacios públicos o semipúblicos.

            En inicial comentario, Horacio R. Granero señaló que el objetivo del Reglamento es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. En procura de ello, fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto. Entre otros aspectos, destaca que los sistemas de IA de uso general y los modelos en los que se basan deben cumplir ciertos requisitos de transparencia, respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos. En cuanto a los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes. Vinculado a un tema que nos ocupó en la primera edición y sobre el que se profundiza en esta, indica que las imágenes, contenidos de audio o de vídeo artificiales o manipulados (deepfakes), deberán etiquetarse claramente como tales[4], lo que seguramente operará minorando sus notas de impacto más negativas.

            De tal suerte, como destaca Mario Adaro, una vez más Europa se muestra como suerte de faro reflexivo que ilumina sobre riesgos de la innovación y marca un sendero que, fijando límites y exigiendo transparencia, en forma prudente, guía para no apartarse del respeto y la protección de los derechos fundamentales. Esta ley pionera no está exenta de miradas críticas y se alzan voces que alertan sobre su poca practicidad para implementarse, dudan de la efectiva colaboración entre gobiernos, empresas y sociedad civil o, evidente, los costos que podría tener que pagar la Unión en términos de desarrollo de los sectores tech, que se encuentran ahora con una serie de condiciones que no tienen simetría en el campo de los dos grandes jugadores del mercado: EEUU y China[5].

            Dejando de lado la muy reciente novedad –que no dudo proyectará impacto en una vasta área de influencia ya sea en forma directa[6] o por contagio (actuando como modelo a seguir)-, lo cierto es que, al menos en el plano local, no habría cambios legales de trascendencia que tornaran a la versión original jurídicamente desactualizada salvo, aunque parcialmente, por la Ley Olimpia[7] (Nº 27736, de octubre de 2023), en cuanto normativizó el concepto de violencia digital que, implícitamente, comprende a la que se concreta, por ejemplo, a través de sesgos algorítmicos, de lo que se dará ahora breve noticia.

            Si atendemos a lo específico, en este mismo mes de marzo, ha ingresado en la H. Cámara de Diputados de la Nación un proyecto de ley sobre Responsabilidad algorítmica y promoción de la robótica, algoritmos verdes e inteligencia artificial en la República Argentina”[8], conformado por un articulado breve (son 16 artículos), que adopta postura en torno a la responsabilidad y transparencia algorítmica, define a los actores de la IA y precisa cuáles son los principios que deben regirla -sin perjuicio de los no enumerados que puedan entenderse implícitos en la CN, Tratados Internacionales y otras leyes de la Nación-  (son: a) Crecimiento inclusivo, desarrollo sostenible y bienestar; b) Valores y equidad centrados en el ser humano; c) Transparencia y explicabilidad; d) Robustez, seguridad y protección; e) Responsabilidad; f) Prevención de riesgos y posibles daños; g) Cooperación público-privada y protección especial a MiPyMEs; y, finalmente, h) Control de la vigilancia estatal)[9]. También se indica la necesidad de fijar protocolos de transparencia, un registro de riesgos significativos, emitir certificación de buenas prácticas y hacer evaluaciones de impacto.

            En el plano de lo institucional, dentro de la iniciativa puede destacarse que propone la creación de un “Consejo Asesor de I.A.” (ad-honorem), conformado por ocho (8) personas designadas por el PEN con acuerdo de la Cámara de Diputados respetando la paridad de género por un período único de 4 años. Debe tratarse de personas con trayectoria reconocida en el ámbito y formación académica en la materia, y deberán proceder paritariamente del sector privado y público (entre los que deberá haber uno representando a la Comisión Nacional de Defensa de la Competencia y otro a la Defensoría del Pueblo de la Nación Argentina). El Consejo será la Autoridad de Aplicación de la Ley, siendo sus objetivos elaborar planes de prevención de posibles peligros en innovaciones tecnológicas, emitir recomendaciones no vinculantes y estimular las buenas prácticas algorítmicas en innovaciones. Deberá asimismo establecer procedimientos ágiles que fomenten la participación, educación, toma de conciencia y consulta por parte de la ciudadanía para garantizar que las decisiones que se tomen sean justas y representen los intereses de todas las partes involucradas (arts. 5 y 6 del proyecto). No es todo, en el capítulo II también se crea un “Programa Federal de Inteligencia Artificial, Algoritmos verdes, Robótica y Automatización” (art. 13).

            Lógicamente, es difícil aventurar cuál será el camino a recorrer por la propuesta legislativa que, de inicio, ofrece en su resumido texto varios frentes de crítica desde el punto de vista de su generalidad y omisiones, así como el contener la creación de una autoridad de aplicación con una conformación de alta rotación (cada cuatro años será totalmente nueva) y que debiera cumplir su misión “ad honorem”, lo que puede sonar muy bien desde el punto de vista de la promoción de la austeridad estatal en tiempos de crisis pero es poco realista con la dedicación y profesionalismo que reclama la misión asignada.

            Retomo. No obstante la mentada ausencia de necesidad de revisión obligada por nueva normativa, se decidió emprenderla optando por profundizar sobre el impacto de la IA en los más diversos aspectos de nuestra vida cotidiana, incluyendo una mayor toma de conciencia pública sobre esto y la facilidad de acceso a dispositivos que nos empiezan a familiarizar con ella. Como dice Flavia Costa, cuando estamos hablando del “antropoceno” para señalar la influencia del comportamiento humano sobre la Tierra, que en las últimas décadas ha sido tan significativa como para implicar transformaciones en el nivel geológico que parecen no admitir vuelta atrás, que son irreversibles, se abre paso la necesidad de considerar y poner el acento en la cuestión del despliegue técnico que sintetizamos haciendo referencia al “tecnoceno”[10]. Por eso, la nueva edición incorpora información actualizada sobre variadas cuestiones imbricadas en ese contexto (ahora se incluyen referencias a las formas de vida infotecnológicas o la problemática de la sustentabilidad ambiental y los algoritmos “verdes”), a la vez que se amplía el arco temático incorporando nuevos temas o explayándose sobre otros que sólo habían sido delineados en sus trazos más básicos.

            Entre los primeros, puede contarse la inclusión de iniciales reflexiones sobre las implicancias del “Metaverso” en materia penal; entre los segundos, el desdoblamiento del capítulo VI original en dos, dedicando uno a profundizar sobre fake news y conductas comunicativas odiosas y otro en exclusiva para el negacionismo, en su vinculación con la incidencia de la IA tanto para amplificarlo como para prevenirlo.

            Todo esto ha generado que, en gran parte, la segunda edición es un “nuevo” libro, provocando un arduo trabajo editorial para enlazar los profusos agregados con el texto inicial. De allí que se imponga reiterar el agradecimiento a todo el equipo de EDIAR, la casa editorial que ha viabilizado la mayoría de mis trabajos desde un ya lejano 1998, por esta cuidada nueva versión de “Inteligencia Artificial y Derecho Penal”. Asimismo, incluyo de nuevo el reconocimiento al enorme aporte que me brindaran mis compañeros del Grupo Argentino de la AIDP (Asociación Internacional de Derecho Penal), presidido por el Prof. Dr. Javier A. De Luca, que tuvo a su cargo llevar adelante con tanto esfuerzo como excelencia el “Coloquio Internacional de Derecho Penal: Inteligencia Artificial y Justicia Penal”, celebrado en el Salón Azul de la Facultad de Derecho de la Universidad de Buenos Aires, del 28 al 31 de marzo de 2023, con la concurrencia de colegas que llegaran desde lugares tan distantes como Japón, Turquía, Finlandia, Alemania, Noruega, Estados Unidos, Gran Bretaña, Bélgica, Francia, España, Portugal, Polonia, entre otros, además de los regionales como Brasil y Chile.

Mar del Plata, marzo de 2024.



[1] Téngase presente que, a partir de la publicación del Libro Blanco sobre la IA de 19 de febrero de 2020, se profundizaron las consultas, lo que se informa que animó a más de 1250 partes interesadas a formular comentarios y a presentar más de 450 documentos de posición adicionales. En consecuencia, la Comisión Europea publicó una evaluación inicial de impacto que, a su vez, dio lugar a más de 130 comentarios. No fue todo, sino que también se organizaron otros talleres y eventos con las partes interesadas, en cuyos resultados se fundamenta el análisis de la evaluación de impacto y las opciones que se plantean en la propuesta de Ley de IA. Asimismo, se encargó un estudio externo destinado a su utilización como material para la evaluación de impacto (puede consultarse por más detalle a los fundamentos de la propuesta).

[3] Fuente: nota titulada “La Eurocámara aprueba una ley histórica para regular la inteligencia artificial”, publicada el 13/03/2024 en el sitio web de noticias oficial del Parlamento Europeo, disponible en  https://www.europarl.europa.eu/news/es/press-room/20240308IPR19015/la-eurocamara-aprueba-una-ley-historica-para-regular-la-inteligencia-artificial

[4] Granero, en su nota titulada Ley de Inteligencia Artificial en Europa. Un paso más hacia la meta final y un desafío a la investigación”, pub. en la biblioteca jurídica online “elDial.com” (http://www.eldial.com), edición del 15/3/2024, ref.: elDial.com- DC33B8.

[5] Cf. Mario Adaro, en su nota “Solo un debate continuo y humanizado puede regular la inteligencia artificial”, pub. en diario “Perfil”, edición del 24/03/2024, sección “El Observador”, págs. 1/3.

[6]  No se trata de una corazonada o arriesgar una imaginativa conclusión a futuro, sino de una afirmación vinculada con el ámbito de aplicación que fija el art. 2, cuyo extenso texto prevé: 1.  El presente Reglamento se aplicará a: a) los proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA o que introduzcan en el mercado modelos de IA de uso general en la Unión, con independencia de si dichos proveedores están establecidos o ubicados en la Unión o en un tercer país; b) los responsables del despliegue de sistemas de IA que estén establecidos o ubicados en la Unión; c) los proveedores y responsables del despliegue de sistemas de IA que estén establecidos o ubicados en un tercer país, cuando la información de salida generada por el sistema de IA se utilice en la Unión. d) los importadores y distribuidores de sistemas de IA; e) los fabricantes de productos que introduzcan en el mercado o pongan en servicio un sistema de IA junto con su producto y con su propio nombre o marca comercial; f) los representantes autorizados de los proveedores que no estén establecidos en la Unión; g) las personas afectadas que estén ubicadas en la Unión.

2. A los sistemas de IA clasificados como sistemas de IA de alto riesgo de conformidad con el artículo 6, apartados 1 y 2, y asociados a productos regulados por los actos legislativos de armonización de la Unión indicados en la sección B del anexo I, únicamente se les aplicará el artículo 112. El artículo 57 se aplicará únicamente en la medida en que los requisitos para los sistemas de IA de alto riesgo en virtud del presente Reglamento se hayan integrado en dicha legislación de armonización de la Unión.

3. El presente Reglamento no se aplicará a los ámbitos que queden fuera del ámbito de aplicación del Derecho de la Unión y, en cualquier caso, no afectará a las competencias de los Estados miembros en materia de seguridad nacional, independientemente del tipo de entidad a la que los Estados miembros hayan encomendado el desempeño de tareas en relación con dichas competencias.

El presente Reglamento no se aplicará a los sistemas de IA que, y en la medida en que, se introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin modificaciones, exclusivamente con fines militares, de defensa o de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades.

El presente Reglamento no se aplicará a los sistemas de IA que no se introduzcan en el mercado o no se pongan en servicio en la Unión en los casos en que la información de salida se utilice en la Unión exclusivamente con fines militares, de defensa o de seguridad nacional, independientemente del tipo de entidad que lleve a cabo estas actividades.

4. El presente Reglamento no se aplicará a las autoridades públicas de terceros países ni a las organizaciones internacionales que entren dentro del ámbito de aplicación de este Reglamento conforme al apartado 1 cuando dichas autoridades u organizaciones utilicen sistemas de IA en el marco de acuerdos o de la cooperación internacionales con fines de aplicación de la ley y cooperación judicial con la Unión o con uno o varios Estados miembros, siempre que el tercer país o la organización internacional ofrezca garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas.

5. El presente Reglamento no afectará a la aplicación de las disposiciones relativas a la responsabilidad de los prestadores de servicios intermediarios que figuran en el capítulo II del Reglamento (UE) 2022/2065.

6. El presente Reglamento no se aplicará a los sistemas o modelos de IA, incluida su información de salida, desarrollados y puestos en servicio específicamente con la investigación y el desarrollo científicos como única finalidad.

7. El Derecho de la Unión en materia de protección de los datos personales, la intimidad y la confidencialidad de las comunicaciones se aplicará a los datos personales tratados en relación con los derechos y obligaciones establecidos en el presente Reglamento. El presente Reglamento no afectará a los Reglamentos (UE) 2016/679 o (UE) 2018/1725 ni a las Directivas 2002/58/CE o (UE) 2016/680, sin perjuicio de los mecanismos previstos en el artículo 10, apartado 5, y el artículo 59 del presente Reglamento.

8. El presente Reglamento no se aplicará a ninguna actividad de investigación, prueba o desarrollo relativa a sistemas o modelos de IA antes de su introducción en el mercado o puesta en servicio. Estas actividades se llevarán a cabo de conformidad con el Derecho de la Unión aplicable. Las pruebas en condiciones reales no estarán cubiertas por esta exclusión.

9. El presente Reglamento se entenderá sin perjuicio de las normas establecidas por otros actos jurídicos de la Unión relativos a la protección de los consumidores y a la seguridad de los productos.

10. El presente Reglamento no se aplicará a las obligaciones de los responsables del despliegue que sean personas físicas que utilicen sistemas de IA en el ejercicio de una actividad puramente personal de carácter no profesional.

11. El presente Reglamento no impedirá que la Unión o los Estados miembros mantengan o introduzcan disposiciones legales, reglamentarias o administrativas que sean más favorables a los trabajadores en lo que atañe a la protección de sus derechos respecto al uso de sistemas de IA por parte de los empleadores ni que fomenten o permitan la aplicación de convenios colectivos que sean más favorables a los trabajadores.

12. El presente Reglamento se aplicará a los sistemas de IA divulgados con arreglo a licencias libres y de código abierto, a menos que se introduzcan en el mercado o se pongan en servicio como sistemas de IA de alto riesgo o como sistemas de IA que entren en el ámbito de aplicación del artículo 5 o del artículo 50”.

[7] Debe su nombre a la activista mexicana Olimpia Coral Melo (nacida en Huachinanga, Puebla), quien fuera víctima de la conducta de difusión de imágenes íntimas a terceros cuando tenía 18 años y su novio publicó fotos con desnudos en Facebook. Valga aclarar que sigue careciendo de tipificación penal en nuestro país, donde sólo hay algunas figuras contravencionales, por ej., en CABA y en Chaco; mientras que sigue sin aprobarse la Ley Belén, que sería la que permitiría superar el vacío legal. Olimpia se constituyó en verdadera adalid de la lucha contra la violencia digital en nuestra región (la revista Time, en 2021, la incluyó en la lista de cien personas más influyentes del mundo), impulsando la adopción de normativa penal al respecto (así, en México, en 2021, con la ley que también lleva su nombre).

[8] Se trata del Expte. 0805-D-2024, TP Nº 18, del 18/03/2024, presentado por el Sr. Diputado por la CABA Maximiliano Ferraro (del bloque Hacemos Coalición Federal). Agradezco el alerta sobre la novedad de parte del Prof. Dr. Carlos C. Sueiro.

[9] Por el detalle sobre cada uno de ellos puede consultarse el texto del art. 4 del proyecto de ley.

[10] Sobre el particular puede consultarse su obra “Tecnoceno. Algoritmos, biohackers y nuevas formas de vida”, ed. Taurus, Bs.As., 2021.

No hay comentarios: