Comparto el Prólogo del Dr. Zaffaroni a la nueva obra de mi autoría publicada por EDIAR (Bs.As., 2022, 304 páginas):
INTELIGENCIA ARTIFICIAL Y DERECHO PENAL
PROLOGO (POR E.RAÚL ZAFFARONI)
La
presente investigación del Profesor Marcelo A. Riquert muestra un panorama
completo de los problemas que la IA ofrece al derecho penal y a la política
criminal, aunque también a la política a secas, con abundante información
bibliográfica nacional y extranjera y datos relevantes, incluyendo las
normativas argentinas vigentes en aspectos puntuales.
Entre los
varios méritos destacables del presente libro, además de las prudentes
opiniones y reflexiones del autor, no es menor que haya evitado caer en la
literatura fantástica que se encuentra en otras obras, completadas con las consabidas
visiones utópicas y distópicas expuestas con alto grado de gratuidad.
Con buen
criterio el autor pasa rápidamente por alto ese género de consideraciones, a cuyo
respecto agregaríamos que los algoritmos no son ni buenos ni malos, sino que lo
serán siempre quienes los proyectan y manipulan, es decir, los humanos. Además,
si los humanos pretenden decidir conductas conforme a mera racionalidad
funcional, queriendo dejar de lado el aspecto emocional de su personalidad, que
juega en la decisión de casi toda conducta humana, no harán otra cosa que
proyectar comportamientos psicopáticos, sin contar con que el compromiso
afectivo tampoco lo podrían eludir del todo al proyectar cada programa.
En
términos bastante más complicados, la reducción a pura racionalidad funcional
parecería haber sido la preocupación de los últimos años de Heidegger respecto
de la tecnología, cuestión que se pone de manifiesto en estas décadas con un solucionismo tecnocrático que, en sus
expresiones más radicales, llega a un alto grado de delirio con la transhumanidad. En un nivel un poco
menor, se halla la pretensión de dejar todos los problemas penales librados a
electricistas del cerebro, conforme a las neurociencias.
Cada vez
que se festeja un avance técnico o científico –como son la IA o las
neurociencias-, algunos de los convidados a la fiesta se embriagan y, como se
sabe, hay ebrios alegres y otros tristes, pero después de un tiempo el alcohol
en sangre se elimina y, aunque siempre queda cierto malestar posterior por
algún tiempo, las ciencias siguen su camino y la embriaguez se olvida.
En 1626,
Francis Bacon señaló con toda claridad el objetivo que habría de perseguir la obtención
del conocimiento humano en el mundo occidental: se trata de buscar un saber que
siempre quiere saber para poder. Al
objeto que quiere dominar le inquiere o interroga -incluso torturándolo- acerca
de cómo dominarlo, pero como el objeto no lo sabe, responde con toda su
entidad. Es esta respuesta con total entidad la que el investigador occidental
no puede deglutir y, por tanto, va quedando aplastado (su-jetado).
Los
investigadores de la IA, en su afán por reproducir mecanismos humanos, en
definitiva, también interrogan a otros seres humanos y, como es obvio, reciben
respuestas humanas, que no pueden terminar de digerir. Pero los humanos siempre
responderán igual: por eso los ladrones siempre corren detrás de los policías,
por lo que la prevención del delito se lleva a cabo con medios más modernos y crecientemente
poderosos considerados infalibles, pero
que son tales hasta que se los apropian los ladrones.
También
es sabido que los delincuentes de mucho mayor vuelo, que se lanzan a usar las
tecnologías de control en escala mayor, acaban disputándose el poder y
usándolas despiadadamente contra ellos mismos. Por lo general, cuando esto
sucede se asustan: a los otros sí, pero a
nosotros no, suelen decir cuando ya es tarde y sólo les queda lengüetear
sus heridas.
La
tecnología de investigación y vigilancia –como todas las anteriores- será
burlada. Incluso en algún momento caerá en manos de los delincuentes, aunque en
cierto modo ya lo está, desde que la usan corporaciones transnacionales para
cometer delitos en gran escala y otros actos preparatorios. En tanto, es
posible que sirva para acentuar la selectividad victimizante del poder
punitivo, conforme a la regla de que a mayor riqueza menor riesgo de
victimización. Los habitantes de los barrios ricos de las grandes ciudades
serán menos victimizados y los de los barrios suburbanos y precarios serán más
victimizados y también más criminalizados. Sería una diferencia cuantitativa,
pero en lo cualitativo, en nada cambiaría lo que está sucediendo en este
momento en toda nuestra región, lo que es verificable echando una rápida ojeada
a la composición de las poblaciones de nuestras prisiones.
La
tecnología de previsión de conductas futuras que promete u ofrece la IA, no es
más que un nuevo momento tecnológico para perfeccionar la vieja y conocida
peligrosidad. Muchas veces se ha ironizado respecto de la máquina para medir la
peligrosidad, aduciendo que no se había inventado el peligrosómetro, lo que no era del todo cierto, dado que la
criminología etiológica había propuesto varias tablas de predicción. Ahora la
IA pretende vender un nuevo modelo de la misma máquina. Como en su armado se
incorporarán todos los datos correspondientes al estereotipo del criminal -según
los prejuicios sociales y policiales-, el programa responderá con criterio
selectivo con mayor celeridad y seguridad que el viejo juez formado en la
escuela positivista lombrosiana.
En este
sentido, tanto para las medidas procesales, como para los llamados beneficios
penitenciarios, la libertad condicional, la condenación condicional y la probation, o incluso para la propia
cuantificación de la pena en la sentencia –ahora llamada sentencing-, se podrá usar este programa, pero eso no cambia para
nada el hecho de que se trata de un aparato que enseña a penar por delitos que
no se han cometido y que ni siquiera se han pensado, dejando de lado el
realmente cometido, lo que no es más que la reiteración de lo que se practica
desde la inquisición que cazaba brujas en el siglo XIII. Los defensores deberán
conocer el programa e instruir a los declarantes para que nieguen o disimulen los
datos configuradores del estereotipo, del mismo modo en que hace algunas
décadas un antipsiquiatra enseñaba a
los pacientes esquizofrénicos a negar sus síntomas para que no los
manicomializasen.
Como
los humanos que proyectan y utilizan los algoritmos no siempre son malos, las
tablas de predicción pueden ser útiles –si están bien hechas- para señalar
criterios que sirvan para indicar el grado de riesgo de victimización. Esto
sería sumamente útil si se hiciese con buen criterio y abarcando todo el
universo de casos conocidos, en especial en los supuestos de violencia
doméstica y riesgos de lesiones o de feminicidio en esas circunstancias, de
modo que la autoridad que reciba las denuncias pueda disponer de un indicador
de la prioridad y urgencia del caso, con mayor precisión que el mero uso de su
buena y personal intuición.
En
cuanto a la facilitación de la búsqueda de antecedentes y jurisprudencia para
evitar reiterar criterios ya establecidos, la IA puede ahorrar trabajo humano,
pero ya se practica en serie y con inteligencia natural. La Corte Suprema de Justicia
de la Nación lo practica desde hace muchos años, lo que explica que sus jueces
puedan emitir más de diez mil resoluciones por año. Se trata de los certiorari o invocaciones del artículo
280 del código procesal civil que se deciden en razón de responder a criterios
anteriores. Estas resoluciones internamente se denominan remisiones y se llevan apiladas a los jueces, que las firman
mecánicamente.
Un capítulo
muy bien informado y estructurado y que hace a la dogmática jurídico penal, es
el referido a los agentes autónomos y artificiales, en la parte que aborda la
cuestión de los automotores. Aunque estos problemas todavía no se plantean,
pronto la tecnología hará que los daños producidos por su funcionamiento
lleguen a los tribunales penales y civiles. Sin duda que esto abre un abanico
de interrogantes a la dogmática penal, muy bien abordados por el autor, como el
riesgo permitido, la imputación del resultado y la tipicidad dolosa o culposa
de alguno de los intervinientes en el curso causal, cuya identificación tampoco
es sencilla, pudiendo darse situaciones de concurrencia de personas. Se trata
de cuestiones de difícil solución dogmática y no deja de ser posible que haya
que rectificar o afinar algunos conceptos.
No menos
interesante resulta el problema procesal que plantea el uso de drones en la
investigación criminal, en especial cuando por medio de esos elementos se
obtiene la notitia criminis. Este es
un problema que ya se ha planteado y, seguramente, habrá de reiterarse con
creciente frecuencia, dando lugar a discusiones acerca del origen lícito de esa
prueba cuando se practique sin orden judicial y en casos en que por los medios
tradicionales no podría obtenerse sin penetrar en domicilio o lugar privado.
En cuanto
al temor de que la actual pandemia se erija en un pretexto para ejercer una
vigilancia sobre la población que acabe con la privacidad y cada ciudadano se
sienta permanentemente vigilado, sin duda que es fundado. En algún país de la
región –con altísima superpoblación carcelaria- al parecer se está usando como
pretexto, con fines de control policial y como habilitación de ejercicio de
poder punitivo informal o subterráneo y, por cierto, en este caso sin emplear
ningún algoritmo.
Por ende,
en lo que hace a nuestra América, se trata en general de un problema futuro,
pero de momento lo que más temor debe inspirar es el ejercicio de poder
punitivo informal, con consecuencias letales y que se practica sin mayor empleo
de IA.
La alta
letalidad de algunas policías de la región, la frecuencia de la tortura y la
persecución política con participación judicial, es lo más preocupante del
momento, sin perjuicio de reflexionar acerca de la forma de evitar el riesgo
futuro de empleo de IA, que sin duda se está usando –en especial los big data- para manipular a la opinión
pública orientando en forma personalizada la invención de realidad acerca de la
necesidad y justificación de la letalidad y las torturas.
La
conveniencia de esta reflexión anticipada es particularmente importante, dado
que se postula entre nosotros un derecho penal que propone resolver los
complicados problemas de imputación objetiva del resultado mediante el criterio
de las expectativas de los roles asumidos, o sea que, en último análisis se
trataría de un derecho penal que aspiraría a configurar una sociedad robótica,
en que cada individuo no deje de construir su celdita de abeja en la forma
predeterminada conforme a su ubicación en el panal.
En
síntesis: este libro presenta un trabajo de investigación ejemplar y cuidadoso,
que debe leerse con especial atención, no sólo por la información especializada
que aporta, sino por el enorme esfuerzo con que el autor trata de definir y precisar
conceptos que no son de fácil deslinde, pero en particular merece todavía una
lectura más atenta el capítulo referido a los agentes autónomos y artificiales,
en razón del importante análisis dogmático del autor, como también lo que hace a
los drones en atención al problema procesal, y el de la técnica de rastreo e
individualización con motivo de la pandemia, por las reflexiones que formula a
su respecto. Agradezco al Profesor Riquert el honor que me dispensa al
permitirme presentar su investigación, cuya lectura he disfrutado y de la que
he aprendido mucho.
E. Raúl Zaffaroni
Profesor Emérito
de la UBA
No hay comentarios:
Publicar un comentario