INTELIGENCIA ARTIFICIAL Y DERECHO PENAL, 2º EDICIÓN AMPLIADA Y ACTUALIZADA, AGOSTO DE 2024
PRESENTACIÓN DEL AUTOR A LA
SEGUNDA EDICIÓN
Relativamente muy poco tiempo después
de la primera edición llegamos a una segunda ampliada en lugar de lo que
parecería más razonable y habitual, que sería la reimpresión de un texto que
solo tiene un par de años de antigüedad.
Sin embargo, estamos frente a un
tema en que los cambios por avances tecnológicos se suceden vertiginosamente.
Mientras tanto, las novedades normativas siguen tramitándose con lento
deambular y los proyectistas se sorprenden por la rapidez con que, cuando
parece que llegamos a plasmar una propuesta de regulación con un grado de
suficiente consenso, la fenomenología muta y el objeto de discusión asume otras
características que los enfrenta a modificar el proyecto.
Lo dicho no quita que en tiempos
cercanos el panorama ofrezca noticias. Así, por ejemplo, luego de una
elaboración que abarca ya cerca de un lustro, tras un proceso complejo que
incluyó interconsultas con todos los sectores interesados[1],
se avanzó con la “Propuesta de Reglamento
del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas
en materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se
modifican determinados actos legislativos de la Unión”[2],
que venía teniendo un favorable tratamiento en diversos organismos de la Unión
Europea, circunstancia que alertaba sobre su inminente aprobación final, que se
ha producido en marzo de 2024 (523 votos a favor, 46 en contra y 49
abstenciones)[3]. Si bien
quedan pendientes algunos pasos formales como la última comprobación jurídica-lingüística, la aprobación definitiva tras
el llamado procedimiento de corrección de errores, se prevé para antes del
final del período legislativo. Luego, la ley también debe ser adoptada
formalmente por el Consejo y entrará en vigor veinte (20) días después de su
publicación.
Conforme
su texto, será de plena aplicación veinticuatro (24) meses después de su
entrada en vigor, aunque hay una serie de excepciones que terminan conformando
un sistema de vigencia escalonado. De tal suerte, las prohibiciones de
prácticas tendrán una carencia de sólo seis (6) meses y para los códigos de
buenas prácticas el plazo será de nueve (9) meses. Las normas sobre la IA de
uso general, incluida la gobernanza esperarán doce (12) meses y las
obligaciones para los sistemas de alto riesgo son las que tendrán el término más
extenso, serán treinta y seis (36) meses.
Se trata de un extenso
documento que consta de un total de ciento ochenta (180) considerandos, que
fundamentan y concretan en ciento trece (113) artículos y trece (13) “Anexos”
que conforman un texto que en su presentación oficial en formato Word ocupa 459
páginas. Sólo el artículo 3, de las “definiciones”, incluye conceptos
vinculados a 68 palabras/situaciones. Y, por supuesto, de inicio declara la
necesidad de alfabetización en materia de IA (art. 4). Las principales líneas de acción anunciadas son: a) salvaguardias sobre la
inteligencia artificial de uso general; b) límites al uso de sistemas de
identificación biométrica por parte de las fuerzas de seguridad; c) prohibición
de la puntuación ciudadana y la IA usada para manipular o explotar las
vulnerabilidades de los usuarios; d) derecho de los consumidores a presentar
reclamaciones y recibir explicaciones.
Se advierte entonces que el nuevo
reglamento europeo asume postura en varios de los problemas que, en su momento,
fueran abordados en el primer texto de esta obra, lo que en el nuevo será considerado. Mínimo anticipo, entre otras, no puede soslayarse que
se adoptan prohibiciones para ciertas aplicaciones de IA que se ha entendido
comprometen seriamente derechos fundamentales degradando la condición de
ciudadano como, por ejemplo, las que implementan el reconocimiento de emociones
en ámbito escolar o laboral, los sistemas de puntuación ciudadana (como el que
se ha probado en China), la denominada actuación policial preventiva sobre base
predictiva (excepto estrictos supuestos previstos), sistemas de categorización
biométrica basados en características sensibles (salvo algunos casos en que
bajo estricto resguardo se admiten en tiempo real con autorización judicial y
administrativa, como sería para la prevención de un delito grave como el
terrorismo) o las de reconocimiento facial indiscriminado ya sea en internet o
por medio cámaras de vigilancia en espacios públicos o semipúblicos.
En
inicial comentario, Horacio R. Granero señaló que el objetivo del Reglamento es
proteger los derechos fundamentales, la democracia, el Estado de derecho y la
sostenibilidad medioambiental frente a la IA que entraña un alto riesgo,
impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. En
procura de ello, fija una serie de obligaciones para la IA en función de sus
riesgos potenciales y su nivel de impacto. Entre otros aspectos, destaca que los
sistemas de IA de uso general y los modelos en los que se basan deben cumplir
ciertos requisitos de transparencia, respetar la legislación de la UE sobre
derechos de autor y publicar resúmenes detallados del contenido usado para
entrenar sus modelos. En cuanto a los modelos más potentes que podrían plantear
riesgos sistémicos deberán cumplir requisitos adicionales, como realizar
evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e
informar sobre los incidentes. Vinculado a un tema que nos ocupó en la primera
edición y sobre el que se profundiza en esta, indica que las imágenes,
contenidos de audio o de vídeo artificiales o
manipulados (deepfakes),
deberán etiquetarse claramente como tales[4],
lo que seguramente operará minorando sus notas de impacto más negativas.
De tal suerte, como destaca Mario
Adaro, una vez más Europa se muestra como suerte de faro reflexivo que ilumina
sobre riesgos de la innovación y marca un sendero que, fijando límites y
exigiendo transparencia, en forma prudente, guía para no apartarse del respeto
y la protección de los derechos fundamentales. Esta ley pionera no está exenta
de miradas críticas y se alzan voces que alertan sobre su poca practicidad para
implementarse, dudan de la efectiva colaboración entre gobiernos, empresas y
sociedad civil o, evidente, los costos que podría tener que pagar la Unión en
términos de desarrollo de los sectores tech, que se encuentran ahora con una
serie de condiciones que no tienen simetría en el campo de los dos grandes
jugadores del mercado: EEUU y China[5].
Dejando de lado la muy reciente
novedad –que no dudo proyectará impacto en una vasta área de influencia ya sea
en forma directa[6] o por
contagio (actuando como modelo a seguir)-, lo cierto es que, al menos en el
plano local, no habría cambios legales de trascendencia que tornaran a la
versión original jurídicamente desactualizada salvo, aunque parcialmente, por la
Ley Olimpia[7] (Nº
27736, de octubre de 2023), en cuanto normativizó el concepto de violencia
digital que, implícitamente, comprende a la que se concreta, por ejemplo, a
través de sesgos algorítmicos, de lo que se dará ahora breve noticia.
Si atendemos a lo específico, en
este mismo mes de marzo, ha ingresado en la H. Cámara de Diputados de la Nación
un proyecto de ley sobre “Responsabilidad
algorítmica y promoción de la robótica, algoritmos verdes e inteligencia
artificial en la República Argentina”[8], conformado por un articulado breve (son 16
artículos), que adopta postura en torno a la responsabilidad y transparencia
algorítmica, define a los actores de la IA y precisa cuáles son los principios
que deben regirla -sin perjuicio de los no enumerados que puedan entenderse
implícitos en la CN, Tratados Internacionales y otras leyes de la Nación- (son: a) Crecimiento inclusivo, desarrollo
sostenible y bienestar; b) Valores y equidad centrados en el ser humano; c)
Transparencia y explicabilidad; d) Robustez, seguridad y protección; e)
Responsabilidad; f) Prevención de riesgos y posibles daños; g) Cooperación
público-privada y protección especial a MiPyMEs; y, finalmente, h) Control de
la vigilancia estatal)[9].
También se indica la necesidad de fijar protocolos de transparencia, un
registro de riesgos significativos, emitir certificación de buenas prácticas y
hacer evaluaciones de impacto.
En
el plano de lo institucional, dentro de la iniciativa puede destacarse que
propone la creación de un “Consejo Asesor de I.A.” (ad-honorem), conformado por
ocho (8) personas designadas por el PEN con acuerdo de la Cámara de Diputados
respetando la paridad de género por un período único de 4 años. Debe tratarse
de personas con trayectoria reconocida en el ámbito y formación académica en la
materia, y deberán proceder paritariamente del sector privado y público (entre
los que deberá haber uno representando a la Comisión Nacional de Defensa de la
Competencia y otro a la Defensoría del Pueblo de la Nación Argentina). El
Consejo será la Autoridad de Aplicación de la Ley, siendo sus objetivos
elaborar planes de prevención de posibles peligros en innovaciones
tecnológicas, emitir recomendaciones no vinculantes y estimular las buenas
prácticas algorítmicas en innovaciones. Deberá asimismo establecer
procedimientos ágiles que fomenten la participación, educación, toma de
conciencia y consulta por parte de la ciudadanía para garantizar que las
decisiones que se tomen sean justas y representen los intereses de todas las
partes involucradas (arts. 5 y 6 del proyecto). No es todo, en el capítulo II
también se crea un “Programa Federal de
Inteligencia Artificial, Algoritmos verdes, Robótica y Automatización”
(art. 13).
Lógicamente,
es difícil aventurar cuál será el camino a recorrer por la propuesta
legislativa que, de inicio, ofrece en su resumido texto varios frentes de
crítica desde el punto de vista de su generalidad y omisiones, así como el
contener la creación de una autoridad de aplicación con una conformación de
alta rotación (cada cuatro años será totalmente nueva) y que debiera cumplir su
misión “ad honorem”, lo que puede sonar muy bien desde el punto de vista de la
promoción de la austeridad estatal en tiempos de crisis pero es poco realista
con la dedicación y profesionalismo que reclama la misión asignada.
Retomo. No obstante la mentada
ausencia de necesidad de revisión obligada por nueva normativa, se decidió
emprenderla optando por profundizar sobre el impacto de la IA en los más
diversos aspectos de nuestra vida cotidiana, incluyendo una mayor toma de
conciencia pública sobre esto y la facilidad de acceso a dispositivos que nos
empiezan a familiarizar con ella. Como dice Flavia Costa, cuando estamos hablando
del “antropoceno” para señalar la influencia del comportamiento humano sobre la
Tierra, que en las últimas décadas ha sido tan significativa como para implicar
transformaciones en el nivel geológico que parecen no admitir vuelta atrás, que
son irreversibles, se abre paso la necesidad de considerar y poner el acento en
la cuestión del despliegue técnico que sintetizamos haciendo referencia al “tecnoceno”[10].
Por eso, la nueva edición incorpora información actualizada sobre variadas
cuestiones imbricadas en ese contexto (ahora se incluyen referencias a las
formas de vida infotecnológicas o la problemática de la sustentabilidad
ambiental y los algoritmos “verdes”), a la vez que se amplía el arco temático
incorporando nuevos temas o explayándose sobre otros que sólo habían sido
delineados en sus trazos más básicos.
Entre los primeros, puede contarse
la inclusión de iniciales reflexiones sobre las implicancias del “Metaverso” en
materia penal; entre los segundos, el desdoblamiento del capítulo VI original
en dos, dedicando uno a profundizar sobre fake news y conductas comunicativas
odiosas y otro en exclusiva para el negacionismo, en su vinculación con la
incidencia de la IA tanto para amplificarlo como para prevenirlo.
Todo esto ha generado que, en gran
parte, la segunda edición es un “nuevo” libro, provocando un arduo trabajo
editorial para enlazar los profusos agregados con el texto inicial. De allí que
se imponga reiterar el agradecimiento a todo el equipo de EDIAR, la casa
editorial que ha viabilizado la mayoría de mis trabajos desde un ya lejano 1998,
por esta cuidada nueva versión de “Inteligencia
Artificial y Derecho Penal”. Asimismo, incluyo de nuevo el reconocimiento
al enorme aporte que me brindaran mis compañeros del Grupo Argentino de la AIDP
(Asociación Internacional de Derecho Penal), presidido por el Prof. Dr. Javier
A. De Luca, que tuvo a su cargo llevar adelante con tanto esfuerzo como
excelencia el “Coloquio Internacional de
Derecho Penal: Inteligencia Artificial y Justicia Penal”, celebrado en el
Salón Azul de la Facultad de Derecho de la Universidad de Buenos Aires, del 28
al 31 de marzo de 2023, con la concurrencia de colegas que llegaran desde
lugares tan distantes como Japón, Turquía, Finlandia, Alemania, Noruega,
Estados Unidos, Gran Bretaña, Bélgica, Francia, España, Portugal, Polonia,
entre otros, además de los regionales como Brasil y Chile.
Mar del
Plata, marzo de 2024.
[1]
Téngase presente que, a partir de la publicación del Libro
Blanco sobre la IA de 19 de febrero de 2020, se profundizaron las
consultas, lo que se informa que animó a más de 1250 partes interesadas a
formular comentarios y a presentar más de 450 documentos de posición
adicionales. En consecuencia, la Comisión Europea publicó una evaluación
inicial de impacto que, a su vez, dio lugar a más de 130 comentarios. No
fue todo, sino que también se organizaron otros talleres y eventos con las
partes interesadas, en cuyos resultados se fundamenta el análisis de la
evaluación de impacto y las opciones que se plantean en la propuesta de Ley de
IA. Asimismo, se encargó un estudio externo destinado a su
utilización como material para la evaluación de impacto (puede consultarse por
más detalle a los fundamentos de la propuesta).
[2]
Disponible para su consulta en https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A52021PC0206
[3]
Fuente: nota titulada “La Eurocámara
aprueba una ley histórica para regular la inteligencia artificial”,
publicada el 13/03/2024 en el sitio web de noticias oficial del Parlamento
Europeo, disponible en
https://www.europarl.europa.eu/news/es/press-room/20240308IPR19015/la-eurocamara-aprueba-una-ley-historica-para-regular-la-inteligencia-artificial
[4]
Granero, en su nota titulada “Ley de Inteligencia Artificial en Europa.
Un paso más hacia la meta final y un desafío a la investigación”, pub. en la biblioteca jurídica online
“elDial.com” (http://www.eldial.com), edición del 15/3/2024, ref.: elDial.com-
DC33B8.
[5]
Cf. Mario Adaro, en su nota “Solo un
debate continuo y humanizado puede regular la inteligencia artificial”,
pub. en diario “Perfil”, edición del 24/03/2024, sección “El Observador”, págs.
1/3.
[6] No se trata de una corazonada o arriesgar una
imaginativa conclusión a futuro, sino de una afirmación vinculada con el ámbito
de aplicación que fija el art. 2, cuyo extenso texto prevé: “1. El presente Reglamento se aplicará a: a) los proveedores
que introduzcan en el mercado o pongan en servicio sistemas de IA o que
introduzcan en el mercado modelos de IA de uso general en la Unión, con
independencia de si dichos proveedores están establecidos o ubicados en la
Unión o en un tercer país; b) los responsables del despliegue de sistemas de IA
que estén establecidos o ubicados en la Unión; c) los proveedores y
responsables del despliegue de sistemas de IA que estén establecidos o ubicados
en un tercer país, cuando la información de salida generada por el sistema de
IA se utilice en la Unión. d) los importadores y distribuidores de sistemas de
IA; e) los fabricantes de productos que introduzcan en el mercado o pongan en
servicio un sistema de IA junto con su producto y con su propio nombre o marca
comercial; f) los representantes autorizados de los proveedores que no estén
establecidos en la Unión; g) las personas afectadas que estén ubicadas en la
Unión.
2. A los sistemas
de IA clasificados como sistemas de IA de alto riesgo de conformidad con el
artículo 6, apartados 1 y 2, y asociados a productos regulados por los
actos legislativos de armonización de la Unión indicados en la sección B del
anexo I, únicamente se les aplicará el artículo 112. El artículo 57
se aplicará únicamente en la medida en que los requisitos para los sistemas de
IA de alto riesgo en virtud del presente Reglamento se hayan integrado en dicha
legislación de armonización de la Unión.
3. El presente
Reglamento no se aplicará a los ámbitos que queden fuera del ámbito de aplicación
del Derecho de la Unión y, en cualquier caso, no afectará a las competencias de
los Estados miembros en materia de seguridad nacional, independientemente del
tipo de entidad a la que los Estados miembros hayan encomendado el desempeño de
tareas en relación con dichas competencias.
El presente
Reglamento no se aplicará a los sistemas de IA que, y en la medida en que, se
introduzcan en el mercado, se pongan en servicio o se utilicen, con o sin
modificaciones, exclusivamente con fines militares, de defensa o de seguridad
nacional, independientemente del tipo de entidad que lleve a cabo estas
actividades.
El presente
Reglamento no se aplicará a los sistemas de IA que no se introduzcan en el
mercado o no se pongan en servicio en la Unión en los casos en que la
información de salida se utilice en la Unión exclusivamente con fines
militares, de defensa o de seguridad nacional, independientemente del tipo de
entidad que lleve a cabo estas actividades.
4. El presente
Reglamento no se aplicará a las autoridades públicas de terceros países ni a
las organizaciones internacionales que entren dentro del ámbito de aplicación
de este Reglamento conforme al apartado 1 cuando dichas autoridades u
organizaciones utilicen sistemas de IA en el marco de acuerdos o de la cooperación
internacionales con fines de aplicación de la ley y cooperación judicial con la
Unión o con uno o varios Estados miembros, siempre que el tercer país o la
organización internacional ofrezca garantías suficientes con respecto a la
protección de los derechos y libertades fundamentales de las personas.
5. El presente
Reglamento no afectará a la aplicación de las disposiciones relativas a la
responsabilidad de los prestadores de servicios intermediarios que figuran en
el capítulo II del Reglamento (UE) 2022/2065.
6. El presente
Reglamento no se aplicará a los sistemas o modelos de IA, incluida su
información de salida, desarrollados y puestos en servicio específicamente con
la investigación y el desarrollo científicos como única finalidad.
7. El Derecho de
la Unión en materia de protección de los datos personales, la intimidad y la
confidencialidad de las comunicaciones se aplicará a los datos personales
tratados en relación con los derechos y obligaciones establecidos en el
presente Reglamento. El presente Reglamento no afectará a los Reglamentos
(UE) 2016/679 o (UE) 2018/1725 ni a las Directivas 2002/58/CE o
(UE) 2016/680, sin perjuicio de los mecanismos previstos en el artículo
10, apartado 5, y el artículo 59 del presente Reglamento.
8. El presente
Reglamento no se aplicará a ninguna actividad de investigación, prueba o
desarrollo relativa a sistemas o modelos de IA antes de su introducción en el
mercado o puesta en servicio. Estas actividades se llevarán a cabo de
conformidad con el Derecho de la Unión aplicable. Las pruebas en condiciones
reales no estarán cubiertas por esta exclusión.
9. El presente
Reglamento se entenderá sin perjuicio de las normas establecidas por otros
actos jurídicos de la Unión relativos a la protección de los consumidores y a
la seguridad de los productos.
10. El presente
Reglamento no se aplicará a las obligaciones de los responsables del despliegue
que sean personas físicas que utilicen sistemas de IA en el ejercicio de una
actividad puramente personal de carácter no profesional.
11. El presente
Reglamento no impedirá que la Unión o los Estados miembros mantengan o
introduzcan disposiciones legales, reglamentarias o administrativas que sean
más favorables a los trabajadores en lo que atañe a la protección de sus
derechos respecto al uso de sistemas de IA por parte de los empleadores ni que
fomenten o permitan la aplicación de convenios colectivos que sean más
favorables a los trabajadores.
12. El presente
Reglamento se aplicará a los sistemas de IA divulgados con arreglo a licencias
libres y de código abierto, a menos que se introduzcan en el mercado o se
pongan en servicio como sistemas de IA de alto riesgo o como sistemas de IA que
entren en el ámbito de aplicación del artículo 5 o del artículo 50”.
[7]
Debe su nombre a la activista mexicana Olimpia Coral Melo (nacida en
Huachinanga, Puebla), quien fuera víctima de la conducta de
difusión de imágenes íntimas a terceros cuando tenía 18 años y
su novio publicó fotos con desnudos en Facebook. Valga aclarar que sigue
careciendo de tipificación penal en nuestro país, donde sólo hay algunas
figuras contravencionales, por ej., en CABA y en Chaco; mientras que sigue sin
aprobarse la Ley Belén, que sería la que permitiría superar el vacío legal.
Olimpia se constituyó en verdadera adalid de la lucha contra la violencia
digital en nuestra región (la revista Time, en 2021, la incluyó en la
lista de cien personas más influyentes del mundo), impulsando la adopción de
normativa penal al respecto (así, en México, en 2021, con la ley que también
lleva su nombre).
[8]
Se trata del Expte. 0805-D-2024, TP Nº 18, del 18/03/2024, presentado por el
Sr. Diputado por la CABA Maximiliano Ferraro (del bloque Hacemos Coalición
Federal). Agradezco el alerta sobre la novedad de parte del Prof. Dr. Carlos C.
Sueiro.
[9]
Por el detalle sobre cada uno de ellos puede consultarse el texto del art. 4
del proyecto de ley.
[10]
Sobre el particular puede
consultarse su obra “Tecnoceno.
Algoritmos, biohackers y nuevas formas de vida”, ed. Taurus, Bs.As., 2021.
No hay comentarios:
Publicar un comentario