La inteligencia artificial (IA) está cada vez más integrada en diversos ámbitos de la sociedad, desde la medicina y la automoción hasta la banca y el entretenimiento. Este avance tecnológico plantea la cuestión de si la IA puede generar responsabilidad penal.
Análisis Jurídico Naturaleza de la IA: La IA es una tecnología desarrollada y operada por seres humanos. Aunque puede tomar decisiones autónomas basadas en algoritmos y datos, carece de conciencia, intencionalidad y capacidad moral, características fundamentales para atribuir responsabilidad penal en la mayoría de los sistemas legales.
Responsabilidad Penal Tradicional: La responsabilidad penal tradicionalmente recae sobre personas físicas o jurídicas que cometen actos ilícitos con dolo o culpa. Y como vimos en la sesión sincrónica del Sábado pasado, incluso la responsabilidad penal de las personas jurídicas se encuentra aún en una etapa muy infante respecto de su desarrollo y regulación.
A nuestro mejor entender, en el caso de la IA, por razón de la ausencia de conciencia, intencionalidad y capacidad moral, se deben identificar los sujetos responsables de su desarrollo, implementación y supervisión como posibles autores de un hecho punible relacionado a la AI. Por ejemplo:
1. Desarrolladores y Programadores: Podrían ser responsables si la IA fue programada de manera negligente o con la intención de cometer actos ilícitos.
2. Operadores y Usuarios: Si usan la IA de manera inapropiada o sin las medidas de seguridad adecuadas, también podrían ser responsables penalmente.
3. Empresas: Las personas jurídicas pueden ser responsables si se demuestra que no implementaron controles adecuados para evitar el uso indebido de la IA. Básicamente el incumplimiento del «Cumplimiento o Compliance», visto en la sesión anterior.
Regulación y Normativa: Actualmente, Panamá es uno de los muchos sistemas legales que no prevén explícitamente la responsabilidad penal de la IA, pero hay un movimiento hacia la creación de marcos regulatorios que aborden estas cuestiones. Podemos mencionar algunos ejemplos:
a. En la Unión Europea, está la Directiva de Responsabilidad por Productos Defectuosos (UE): La cual podría aplicarse si la IA se considera un producto defectuoso.
b. Regulaciones Específicas de IA: Algunos países, como Estados Unidos de América, están desarrollando regulaciones específicas para abordar los riesgos asociados con la IA y establecer responsabilidades claras.
Ejemplos Prácticos: – Vehículos Autónomos: Si un vehículo autónomo causa un accidente, se debe investigar si hubo fallos en el software, errores humanos en el mantenimiento o falta de supervisión adecuada. En el caso del campo marítimo, están los buques autónomos, que sin o poca tripulación abordo, navegan por las aguas jurisdiccionales de países ribereños, sin embargo, este tópico sigue siendo un reto de regulación.
– Sistemas de Diagnóstico Médico: Si una IA proporciona un diagnóstico incorrecto, la responsabilidad puede recaer en los desarrolladores del software, los profesionales médicos que lo utilizaron sin validación adecuada, o la institución que implementó el sistema.
En cuanto a la imputabilidad penal, somos del criterio que se requiere la capacidad de actuar con intencionalidad y comprender la naturaleza del acto ilícito. Un robot transhumano, aunque avanzado, no tiene la capacidad de formar intención criminal ni de comprender el impacto moral o legal de sus acciones. Esta carencia de capacidad cognitiva y moral impide que sea considerado un sujeto de derecho penal.
La mayoría de los sistemas legales actuales no contemplan la posibilidad de imputar responsabilidad penal directamente a máquinas o sistemas de IA. Sin embargo, existen discusiones sobre la necesidad de desarrollar marcos regulatorios específicos para abordar estos casos, asignando responsabilidades claras a los humanos detrás de estas tecnologías. Un ejemplo sería Japón, pues está avanzando en la creación de un marco regulatorio para la IA y la robótica, que incluye directrices sobre la responsabilidad en caso de mal funcionamiento o uso indebido de estas tecnologías.
Conclusión Desde nuestra comprensión, la IA en sí misma, como entidad tecnológica, no puede ser sujeto de responsabilidad penal debido a su falta de intencionalidad y capacidad moral. Sin embargo, las personas y entidades involucradas en su desarrollo, implementación y uso pueden ser responsables penalmente si se demuestra negligencia, dolo o incumplimiento de regulaciones. La creación de un marco regulatorio específico para la IA es crucial para abordar estas cuestiones y garantizar la seguridad y responsabilidad en su uso.
Finalmente, sobre el escenario del robot transhumano, somos del criterio que no puede ser sujeto de responsabilidad penal debido a su incapacidad para actuar con intencionalidad y entender la moralidad de sus acciones. La responsabilidad penal recae en los humanos involucrados en su desarrollo, implementación y uso. Es crucial que se desarrollen marcos regulatorios específicos para abordar estos desafíos y garantizar que las innovaciones tecnológicas se utilicen de manera segura y ética.
La inteligencia artificial (IA) puede generar responsabilidad penal, pero su aplicación en el derecho penal es un campo en ascenso que plantea oportunidades y desafíos. La IA puede ayudar en el análisis de datos legales para detectar patrones y proyecciones, lo que puede ser útil para la prevención del delito y las decisiones escogidas, en casos penales. Sin embargo, su implementación requiere abordar temas como la transparencia, la equidad y la protección de la privacidad, y establecer un equilibrio entre la aplicación de la tecnología y la toma de decisiones humanas basadas en el juicio y la experiencia. En cuanto a la responsabilidad penal de la IA, existen diferentes modelos de responsabilidad sugeridos, como el modelo de agencia indirecta, que considera a la IA como una herramienta inocente sin responsabilidad penal, y el modelo de responsabilidad directa, que sugiere que la IA puede ser castigada como los humanos. Sin embargo, no existen regulaciones claras sobre la responsabilidad penal de la IA, y se debate qué tipo de castigo podría recibir si se acepta la responsabilidad penal en el futuro. En el ámbito de la responsabilidad penal corporativa, se plantea la cuestión de si la inteligencia artificial autónoma puede generar responsabilidad penal para las personas jurídicas, y cómo se debería abordar este tema en el marco legal. En resumen, la IA puede generar responsabilidad penal, pero su aplicación en el derecho penal requiere un enfoque cuidadoso y regulado para garantizar que se respeten los derechos fundamentales y se mantenga la integridad del sistema de justicia.
jorge mayo 22, 2024 @
4:20 pm
La Inteligencia artificial, es una realidad a la cual, no podemos escapar para nadie es un secreto que ha llegado para quedarse, ahora bien, el debate dentro del Derecho Penal va girar en torno al dolo, y por esto, nuestro doctrina penal la define como la maquinación o la intención para hacer daño, si esto es así, y no encontramos ante un procedimiento quirúrgico en donde el robot no cumple con un procedimiento, entonces nos encontramos ante la presencia de negligencia, pero si al analizar la figura de un robo el robot se encuentra programado para ser violento entonces deberíamos ver la responsabilidad penal del programador, sin embargo, no podemos pasar por alto que cada día el pensamiento del robot es mas autónomo colocando nos en una encrucijada sobre la responsabilidad de la inteligencia artificial, finalmente se llegara aun punto en donde sera perfectamente viable la responsabilidad de la Inteligencia artificial a medida que la tecnología aumenta.
ELIZABETH ANDRADES CRÚZ mayo 22, 2024 @
6:39 pm
CONSIDERA USTED QUE LA INTELIGENCIA ARTIFICIAL PUEDE GENERAR RESPONSABILIDAD PENAL. Ejemplo del robot con forma humana, donde se le ha incorporado un sotfware para que lleve a cabo una cirugía de corazón abierto, pero el día que realiza la cirugía, obvia una fase del procedimiento quirúrgico y el paciente fallece en el salón de operaciones. ¿De quién es la responsabilidad por la comisión del delito de homicidio culposo? A los robots trans humano A la persona que diseño el sotfware y lo instaló A quien le da el mantenimiento a la máquina. En la actualidad la IA en sí no puede ser considerada responsable penalmente, toda vez que no puede atribuírsele esa responsabilidad penal por su falta de intencionalidad y conciencia, más si a las personas que o entidades que desarrollan implementan y operan estos sistemas pueden ser responsables penalmente en caso de encontrar negligencia o mala praxis. La responsabilidad penal podría atribuírsele en caso de que existiera un marco legal a los operadores que crean y programen sistemas de IA, en caso de que causen daño alguno debido a fallos o diseño, por la programación, por negligencia en el desarrollo del proceso. Igualmente serán responsables las personas o entidades que controlen o utilicen la IA, por el uso indebido, la falta de mantenimiento o el mano incorrecto del sistema de IA. Las empresas que desarrollan venden o utilicen sistemas de IA, pueden ser responsables penalmente si se determina que hubo una negligencia en la creación, falta de monitorio en el sistema, etc. Es importante el desarrollo de marcos legales adecuados y adaptados a las leyes existentes, introduciendo nuevas normas penales de responsabilidad penal, en nuestro País, por los desafíos y evolución relacionados con la IA. Toda vez que el uso incorrecto puede ocasionar daños, perjuicios a una persona natural o jurídica, sin que exista una regulación que pueda sustentan y atribuírsele responsabilidad penal.
YESSID BUITRAGO mayo 22, 2024 @
7:34 pm
Buenas noches, bendiciones para todos.
Partiendo de la premisa de que en nuestro país la Inteligencia Artificial (IA) no es un sujeto de derecho, ni se le reconoce una personalidad jurídica; entonces la responsabilidad penal por las infracciones cometidas, se imputarían a las personas físicas que utilizan esta tecnología, o que la programan para delinquir. Considero que la IA sí puede generar responsabilidad penal, ya que probablemente puede cometer delitos del tipo informático o ciberdelitos, sumándose a los sujetos activos del delito; esta probable responsabilidad penal de la IA frente a irresolubles y variados casos cometidos por ésta, y dada la ausencia de precedentes regulatorios nacionales, permite inducir necesariamente una urgente regulación jurídica. Quiero citar el Convenio Internacional de Budapest sobre Ciberdelincuencia donde establece que los Estados firmantes adoptarán las medidas legislativas o de otro tipo que se estimen necesarias para permitir que las personas jurídicas puedan ser tenidas por responsables de las infracciones establecidas en el presente Convenio, cuando estas sean cometidas por una persona física, actuando ya sea a título individual, ya sea como miembro de un órgano de la persona jurídica. Por todo ello considero que es necesario legislar sobre esta materia; en particular, unas normas éticas deben presidir la programación de la IA y situar al ser humano en el centro de su programación. Y también unas causas tasadas que permitan solicitar judicialmente el apagado de la IA, por si algo deja de funcionar bien. En conclusión, las consecuencias probables de responsabilidad penal de la IA en términos generales y de lógica jurídica, no podrían ir más allá de como sucede en el caso de los menores de edad, o menos aún en cuanto a sanciones se trata. La posibilidad de que ésta se regule facilitaría acciones de política criminal, actualización legal y normativa, estrategias y programas de prevención, asignaturas de alfabetización, actualización y capacitación como parte de las políticas públicas; para que dicha regulación de orden penal deba realizarse, es importante saber que la teoría jurídica actual en nuestro país que proponga en su momento regular a la IA es empírica y escasa, e incompleta en cuanto a consideraciones en derecho penal se trata.
YESSID BUITRAGO
José Amores N. mayo 22, 2024 @
10:26 pm
Una vez concluída la lectura del artículo de opinión «Inteligencia artificial y culpabilidad» y atendiendo la interrogante planteaada ¿Considera usted que la inteligencia artificial puede generar responsabilidad penal?, emito mí consideración al respecto. Por inteligencia artificial se tiende a conceptualizar como el sistema para tratamiento y análisis de la información, generlalmente con soporte informático, alimentado por humano con rol de programador. El tema de la Inteligencia Artificial en adelante AI, concordando con la Dra. Julias Zaénz, es de gran actualidad y sobre todo relevancia, mismo que amerita con prontitud ser tratado de forma urgente por todos los sectores de la sociedad que tengan participación en el mismo, implicando a su vez que cualquier avance que se realice sobre el tema, involucra solventar con rapidez todo lo relacionado al mismo, ya que en el sector tecnológico el actuar con prontitud y con algo de previsión a futuro se hace necesario por el avance constante que se desarrolla en este ámbito.
En lo que respecta al ámbito del derecho en general en nuestro país, no se ha legislado de forma precisa sobre la IA, existen algunas normas que de alguna forma se relacionan dado el carácter del medio tecnológico y la actividad que se efectúa con su empleo, por ejemplo la ley de comercio electrónico 51 de 22 de julio de 2008, la ley de protección de datos personales o la 81 de 26 de marzo de 2019, que entró a regir en marzo de 2021, le resolución No.004-2021-NRA-DG-AAC de 13 de abril de 2021, de la Autoridad de Aeronáutica Civil de Panamá, que establece requísitos para la operación de los sistemas de aeronaves pilotadas a distancia (Drones). Sin embargo, como se indicó, de modo digamos leve se relaciona al tema, más no es especificamente sobre e mismo.
La ausencia de legislación en el país, no es algo que solo ocurre en Panamá, muchos países no cuentan con instrumemento normativo que regule la IA de modo preciso, incluso países donde el empleo de la IA se lleva a cabo a niveles no comparables con regiones vastas de la tierra, como el caso de Estados Unidos, Europa, Japón y China, se han efectuado avances sobre la regulación de la IA; empero, aún se encuentra en fase incipiente.
En el caso de Estados Unidos, el 1 de enero de 2021 se promulgó la ley de iniciativa nacional de IA, con el fin coordinar todas las actividades de investigación y educación sobre IA, en el 2022 se publicó un proyecto de carta de derechos de la IA, no vinculante, busca establecer los principios que deben regir el sistema de IA, para proteger los derechos de las personas frente al mismo. Actualmente se recaban comentarios públicos, especie de consulta para adoptar posibles medidas de regulación y responsabiilidad para la IA como el Chat GPT.
La Comisión Europea, presentó en abril de 2021 un paquete de medidas sobre IA, en el que se encuentra uno relacionado a IA, que contiene propuesta de regulación sobre la materia en la Unión Europea, lo mencionado fue con la intención de precisar que no estamos ante un tema que no amerite atención y que no sea de actualidad, siendo así que en Panamá con se indaga, en nuestro código penal, no existe normas desarrolladas sobre la responsabilidad penal de la IA; empero, atendiendo por ejemplo que la acción efectuada en detrimento de una persona natural o jurídica por IA controlada, aplicada o desarrollada por un persona Jurídica, se cuenta con una incipiente a su vez norma de aplicación y atribución de resposabilidad penal a la Persona Jurídica, podría haber alguna respuesta, pero no de modo directo que se reconzca responsabilidad penal a la IA, en donde si con respecto a lo indicado de la Persona Jurídica, no se cuenta con una estructurada y debidamente desarrollada doctrina, así como norma penal, mucho menos en el ámbito de la IA.
Importante acotar que la IA de acuerdo a su empleo se considera Asistida, aquella que se usa para ayudar a los humanos en la realización de tareas, como elección de hojas vida, contratación. La Automatizada, empleada para organizaciones empresariales o negocios, la Aumentada con la que se facilita la toma de decisiones, aprendiendo de la interacción que se lleva acabo, aquí se encuentran los buscadores o navegadores, redes sociales y la Autónoma que tiene la capacidad de procesar la infrmación, tomar decisiones sin intervención humana, con programación de algoritmos que buscan suplir de la capacidad de descirnimiento, pensar, sentimientos e interacción individual o propia, en esta última encontramos los vehículos autonómos, drones, robots, entre otros. Implica que la IA a la que la responsabiidad penal debe aplicarse, es aquella que actúa de modo particular o modo autónomo y toma decisiones que pueden ocasionar daño de cualquier naturaleza a una persona, ya que al tratarse de las otras formas de IA al causarse alguna situación de afectación de derechos, generalmente es producto del accionar directo de otra persona que controla el medio empleado de la IA.
Deika Nieto mayo 22, 2024 @
11:15 pm
El día que la inteligencia artificial se desarrolle por completo podría significar el fin de la raza humana. Funcionará por sí sola y se rediseñará cada vez más rápido. Los seres humanos, limitados por la lenta evolución biológica, no podrán competir con ella y serán superados”. Stephen Hawking, citado por Alejandra Morán Espinosa (2021) Considera usted que la inteligencia artificial puede generar responsabilidad penal?
Considero que en la actualidad no se podría de acuerdo a los tipos penales existentes generar una responsabilidad dirigida a la inteligencia artificial como ente autonomo, en la diversas de forma que pueda manifestarse que es más allá que un robot, máquina, etc., dado que deben debe cumplir con todos los elementos del delito, incluyendo a los ciberdelitos. La propuesta sería coincidiendo con algunos autores sería “Analizar y ponderar los elementos fácticos actuales, para proponer su regulación especial a través de dos vertientes principales: 1. La creación de un tercer tipo de persona jurídica – “la persona artificial”-, y 2. La probable responsabilidad penal (IA) -frente a irresolubles y variados casos cometidos por ésta-, y dada la ausencia de precedentes regulatorios nacionales, permite inducir claramente como la próxima, apremiante y urgente frontera jurídica a regular2.
Para ilustrar el aporte en el foro comparto algunos casos emblematicos que se han dado a nivel internacional que nos plantean el desafío de regular, control y hasta tipicar algunas conductas a través del Derecho Penal: – 2018, el año en que se sucede el primer accidente mortal a un ser humano que protagonizó un vehículo autónomo de la empresa Uber, en Arizona, cuya pasajera no pudo evitar y que detonó la discusión de quién era el responsable jurídico, la empresa UBER, el dueño del vehículo, la automotriz que lo diseño o incluso si el auto que es guiado por IA podría ser responsable. – En 2019, en Hungría, se cometió el primer delito con ayuda de una IA, al realizar una simulación de la voz de un CEO para solicitar un depósito urgente de 243,000 euros entre una empresa eléctrica y un proveedor que efectivamente se realizó.
Hay bibliografía que alertar que en el futuro la tecnología tendrá una presencia y acción determinante en la realización de delitos (J P, E. “Los robots, mayores delincuentes en 2040”, nota informativa en web, (13 de septiembre del 2016), El Universal, México, [Consultado en septiembre 30 del 2020], Disponible en: https://www.eluniversal.com.mx/articulo/ ciencia-y-salud/tecnologia/2016/09/13/robots-cometeran-mas-delitos-que-seres-humanos-en-2040)
Se han realizado propuestas a nivel internacional para regular está situación y otra consideración para ponderar la regulación de la responsabilidad penal de una IA es que existe la posibilidad que una persona moral pueda ser responsable penalmente si a través de ésta o usando su representación, se ha cometido o facilitado la comisión de un delito. Es indudable la la necesidad de regulación y actualización de las normas incluyendo las penales para garantizar un control y generar responsabilidad en posibles conductas derivadas de la inteligencia artifical que son provocadas en algunos casos por personas naturales (a quienes se les puede responsabilizar) pero no a un ente abstracto creado a través de inteligencia artifical. Interesante la referencia encontrada sobre que es aplicable los aspectos de la responsabilidad penal como el caso los menores de edad e inimputables, ya que es similar “puede tener conocimiento, pero no conciencia ya que ésta es una capacidad naturalmente humana aún no emulada por la IA, aun cuando al parecer, no estemos muy lejos de ello”.
Maria Hartman Yanguez mayo 22, 2024 @
11:47 pm
A medida que la IA se vuelve más omnipresente en diversos aspectos de la sociedad, incluidos el transporte autónomo, la atención médica y la justicia, surge la necesidad de establecer claridad sobre las implicaciones legales de sus acciones. En primer lugar, es importante reconocer que la responsabilidad penal tradicionalmente ha recaído en individuos que poseen la capacidad de tomar decisiones conscientes y tener intenciones. Sin embargo, la IA presenta un desafío único en este sentido, ya que los sistemas de IA pueden operar de manera autónoma, tomando decisiones complejas sin una intervención humana directa. Desde una perspectiva legal, la atribución de responsabilidad penal en casos relacionados con la IA puede ser complicada. Por un lado, los desarrolladores y propietarios de sistemas de IA podrían ser considerados responsables si se demuestra que la IA actuó de manera defectuosa debido a un diseño o implementación negligentes. Esto plantea la cuestión de si los diseñadores de IA deberían ser responsables de prever y mitigar posibles resultados no deseados de sus sistemas. Por otro lado, surge el desafío de establecer responsabilidad cuando la IA actúa de manera autónoma y causa daño o comete delitos sin intervención humana directa. En estos casos, la atribución de responsabilidad se complica por la falta de intencionalidad o conciencia en la IA. Los sistemas legales aún están en proceso de adaptación para abordar estas situaciones, y se necesitan marcos legales y regulaciones que establezcan la responsabilidad y las consecuencias legales en casos específicos de comportamiento de IA. En conclusión, si bien la inteligencia artificial plantea desafíos únicos en términos de responsabilidad penal, desde mi punto de vista no genera responsabilidad penal puesto que no podríamos identificar con claridad si el delito fue intencionalmente provocado con dolo o simplemente es un delito culposo. La asignación específica de la responsabilidad penal puede variar según las circunstancias y la jurisdicción ya que es necesario que se encuentre debidamente tipificado en nuestro código para poder identificar esta responsabilidad que puede recaer sobre aquellas personas que sean propietarios o desarrolladores del equipo, operadores y/o supervisores de la tecnología o los robots.
Omar Guillermo mayo 23, 2024 @
11:18 am
Con respecto al tema señalado, algunos autores consideran que la Inteligencia Artificial (IA) es un conjunto de conceptos y capacidades intelectuales y cognoscitivas, ingresadas en sistemas y softwares con el fin de ser analizadas, sintetizadas y procesadas por equipos tecnológicos, que realizan actividades equiparables con las actividades intelectuales de los seres humanos. Por tal razón, como actividad que influye en los actos de los seres humanos de forma indirecta, se debe tener presente algunos elementos que probablemente por uso, pueden afectar algunos derechos o, provocar resultados no esperado, que lesionen la integridad física, emocional ética o legal de personas, tanto jurídicas como naturales; en consecuencia, aquellos actos que lesionan derechos adquiridos deben ser regulados y procesados por los procedimientos correspondientes que reparen el daño o lesión, aunque éstos sean cometidos por maquinas.
En este contexto, se puede mencionar que ya se han dado los primeros actos con respecto a una regulación en esta materia, por medio del Consejo de Europa, quién adopta el primer tratado internacional sobre Inteligencia Artificial, llamado Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho; que consiste en el primer tratado internacional jurídicamente vinculante, el cual trata de garantizar el respeto a los derechos humanos, acorde a los usos y sistemas de inteligencia artificial.
Este tratado trata de abarcar a todos los Estados y el ciclo de procesos que pueden provocar riesgos en contra de los derechos de las personas, y en el cual se describen, los riesgos que se pueden ocasionar al diseñar, desarrollar, utilizar y procesar la información y describe aquellas figuras jurídicas y los actos que indican el decomiso de los sistemas y equipos, por daños a los derechos en general.
La problemática posiblemente existente sobre el uso y los riesgos de provocar lesiones a los derechos adquiridos, radica en que los avances tecnológicos evolucionan rápidamente y de manera creciente, en tanto que los procesos de creación y desarrollo de las normas y reglas jurídicas para regular estas actividades tienen sus procesos y los mismo son muy lentos, comparado con el desarrollo de la tecnología, por lo que los daños y lesiones a los derechos establecidos irá en aumento a medida que se desarrollan nuevas tecnologías.
Consideramos que este convenio, el Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y derechos humanos, democracia y Estado de derecho, permite un avance significativo, el cual establece un mecanismo de supervisión independiente, para vigilar, supervisar y controlar, que se cumpla con el respeto a los derechos humanos y con las reglas del convenio, que garanticen que las actividades respeten el derecho internacional, las instituciones y los procesos democráticos, además indica que se sensibilice y estimule un debate público informado, que lleven a cabo consultas con múltiples partes interesadas sobre cómo debería ser utilizada la tecnología de la IA.
JOSÉ AMORES N. mayo 23, 2024 @
2:01 pm
Una vez concluida la lectura del artículo de opinión «Inteligencia artificial y culpabilidad» y atendiendo la interrogante planteada ¿Considera usted que la inteligencia artificial puede generar responsabilidad penal?, emito mí consideración al respecto. Por inteligencia artificial se tiende a conceptualizar como el sistema para tratamiento y análisis de la información, generalmente con soporte informático, alimentado por humano con rol de programador. El tema de la Inteligencia Artificial en adelante AI, concordando con la Dra. Julias Sáenz, es de gran actualidad y sobre todo relevancia, mismo que amerita con prontitud ser tratado de forma urgente por todos los sectores de la sociedad que tengan participación en el mismo, implicando a su vez que cualquier avance que se realice sobre el tema, involucra solventar con rapidez todo lo relacionado al mismo, ya que en el sector tecnológico el actuar con prontitud y con algo de previsión a futuro se hace necesario por el avance constante que se desarrolla en este ámbito. En lo que respecta al campo del derecho en general en nuestro país, no se ha legislado de forma precisa sobre la IA, existen algunas normas que de alguna forma se relacionan dado el carácter del medio tecnológico y la actividad que se efectúa con su empleo, por ejemplo la ley de comercio electrónico 51 de 22 de julio de 2008, la ley de protección de datos personales o la 81 de 26 de marzo de 2019, que entró a regir en marzo de 2021, le resolución No.004-2021-NRA-DG-AAC de 13 de abril de 2021, de la Autoridad de Aeronáutica Civil de Panamá, que establece requisitos para la operación de los sistemas de aeronaves pilotadas a distancia (Drones). Sin embargo, como se indicó, de modo digamos leve se relacionan al tema, más no es específicamente sobre el mismo. La ausencia de legislación en el país no es algo que solo ocurre en Panamá, muchos países no cuentan con instrumento normativo que regule la IA de modo preciso, incluso países donde el empleo de la IA se lleva a cabo a niveles no comparables con regiones vastas de la tierra, como el caso de Estados Unidos, Europa, Japón y China, se han efectuado avances sobre la regulación de la IA; empero, aún se encuentra en fase incipiente. En el caso de Estados Unidos, el 1 de enero de 2021 se promulgó la ley de iniciativa nacional de IA, con el fin coordinar todas las actividades de investigación y educación sobre IA, en el 2022 se publicó un proyecto de carta de derechos de la IA, no vinculante, busca establecer los principios que deben regir el sistema de IA, para proteger los derechos de las personas frente al mismo. Actualmente se recaban comentarios públicos, especie de consulta para adoptar posibles medidas de regulación y responsabilidad para la IA como el Chat GPT. La Comisión Europea, presentó en abril de 2021 un paquete de medidas sobre IA, en el que se encuentra uno relacionado a IA, que contiene propuesta de regulación sobre la materia en la Unión Europea, lo mencionado fue con la intención de precisar que no estamos ante un tema que no amerite atención y que no sea de actualidad, siendo así que en Panamá como se indaga, en nuestro código penal, no existe normas desarrolladas sobre la responsabilidad penal de la IA; empero, atendiendo por ejemplo que la acción efectuada en detrimento de una persona natural o jurídica por IA controlada, aplicada o desarrollada por un persona Jurídica, se cuenta con una incipiente a su vez norma de aplicación y atribución de responsabilidad penal a la Persona Jurídica, podría haber alguna respuesta, pero no de modo directo que se reconozca responsabilidad penal a la IA, en donde si con respecto a lo indicado de la Persona Jurídica, no se cuenta con una estructurada y debidamente desarrollada doctrina, así como norma penal, mucho menos en el ámbito de la IA. Importante acotar que la IA de acuerdo con su empleo se considera Asistida, aquella que se usa para ayudar a los humanos en la realización de tareas, como elección de hojas vida, contratación. La Automatizada, empleada para organizaciones empresariales o negocios, la Aumentada con la que se facilita la toma de decisiones, aprendiendo de la interacción que se lleva a cabo, aquí se encuentran los buscadores o navegadores, redes sociales y la Autónoma que tiene la capacidad de procesar la información, tomar decisiones sin intervención humana, con programación de algoritmos que buscan suplir de la capacidad de discernimiento, pensar, sentimientos e interacción individual o propia, en esta última encontramos los vehículos autónomos, drones, robots, entre otros. Implica que la IA a la que la responsabilidad penal debe aplicarse, es aquella que actúa de modo particular o modo autónomo y toma decisiones que pueden ocasionar daño de cualquier naturaleza a una persona, ya que, al tratarse de las otras formas de IA al causarse alguna situación de afectación de derechos, generalmente es producto del accionar directo de otra persona que controla el medio empleado de la IA.
andres ahumada aranda mayo 23, 2024 @
8:07 pm
comenzare por aportar una definición de IA de Rouse, Margareth, computerwekly.es y dice lo siguiente: la inteligencia artificial es una simulación de procesos de inteligencia humana por parte de maquinas, especialmente sistemas informáticos. estos proceso incluyen el aprendizaje (la adquisición de información y reglas para el uso de la información). las aplicaciones particulares de la IA incluyen sistemas expertos, reconocimiento de voz y visión artificial. hoy día se aplica en la medicina, en los negocios, en las fabricas, en las finanzas, etc. respecto a la culpabilidad, sin duda debemos referirnos al dolo o culpa en la conducta del acusado para que se constituya de una infracción penal y pueda ser sancionada, el reproche a una persona por violentar una conducta prohibida, pudiendo haber elegido no hacerlo, a ese injusto se le reprocha por su conducta, ademas si dicha conducta es típica, antijurídica y culpable, entra en acción el Derecho punitivo del Estado, para mantener el control social, por tanto humanos. como puede el Estado sancionar conductas de maquinas, si históricamente a sancionado a seres humanos, aquí el gran problema que en un futuro muy cercano el Derecho penal debe abordar para tomar las acciones necesarias de control, no tengo la menor duda que así será. quisiera ejemplificar algunos temas al respecto de situaciones que pueden ocurrir con el usos de herramientas de IA, si un auto con total autonomía de manejo, un Tesla, tiene software de manejo autónomo a través de sensores que le indican a un software central la velocidad, cuando frenar y toma medias preventivas para evitar accidentes, hasta ahi todo bien, sin embargo que ocurriría si por alguna razón falla el software y se impacta con objeto fijo y ocasiona la muerte del conductor, el agente de Transito como levantara su informe, y el juez de Transito y la Fiscalia, como acreditaran la conducta si fue producto del fallo en el software, ¿quien es el que cometió el hecho punible? ¿a quién se le debe aplicar la sanción punitiva?. en mi opinión al desarrollador del software, pero si este tipo de hechos no esta en la ley que hará el juez penal, aplicar la analogía, si es sabido que el Derecho penal es para control de humanos, no de maquinas, es pues interesante como se adaptara el Derecho penal a estas realidades sociales no escritas aun en ámbitos de la aplicación de sanciones penales, tarea pues que muy pronto todos debemos resolver.
Laura A. Díaz Vallejo mayo 24, 2024 @
4:16 pm
Desde mi punto de vista, la inteligencia artificial no puede tener ni derechos ni obligaciones ya que no tiene como hacer uso efectivo de esos derechos y no puede cumplir con obligaciones legales. Pero, sus creadores/administradores/usuarios, sí. Desde el momento en que una persona adquiere un vehículo Tesla, por ejemplo, su propietario será el responsable por lo que suceda con ese vehículo, tal como pasaría con el propietario de cualquier otro; si el Tesla provoca un accidente de tránsito, como ha pasado en otras latitudes, el propietario deberá responder civil y penalmente, de aplicar, por las consecuencias de dicho accidente. Ese ejemplo se hace extensivo a los propietarios de drones que causen algún daño a la propiedad o personas o los hospitales que usen robots para operaciones; si el robot falla en el medio de una operación, el hospital que adquirió dicho robot debe responder ante los familiares.
La inteligencia artificial es autónoma ya que está creada para serlo, pero hasta donde llegan mis conocimientos, entrará en acción al recibir un comando de una persona, no por sí sola. Así, quien dé el comando, debe ser quien sea el sujeto de las consecuencias legales que se originen a raíz de la IA.
Ciertamente que ésta puede ser muy beneficiosa, hace más accesible la obtención de ciertos conocimientos, puede ejecutar tareas de forma precisa y quizás mucho mejor que cualquier humano, su racionamiento no está sesgado por opiniones o experiencias personales y muchas otras. Herramientas como Alexa resultan útiles en muchos aspectos; el gran problema (en mi opinión) radica en las personas que están detrás de estas herramientas. Por poner un ejemplo sencillo, se habla de casos donde una persona accede a un sistema de cámaras de seguridad de un lugar X, violando la intimidad de ese lugar, pero no es el sistema en sí, el sistema solo responde a un comando que da una persona y esa es la que debe considerarse la responsable desde todo punto de vista legal.
Antonio Loaiza Batista mayo 24, 2024 @
6:35 pm
La inteligencia artificial ha surgido como consecuencia de los avances tecnológicos y como bien indica la Doctora Julia Sáenz en su artículo tiene un impacto en el ser humano que aun no se ha podido establecer su alcance a nivel individual y social. Ahora bien, frente a la pregunta si la inteligencia artificial puede generar responsabilidad penal, corresponde aclarar en primera instancia cómo se ha definido y a quien corresponde la mencionada responsabilidad y bajo que circunstancias. En este sentido, siempre se ha considerado que para que exista una conducta delictiva primero debe estar tipificada en la norma y segundo debe haber intención (dolo) o culpa (negligencia), siendo que el delito se realiza al evaluar el caudal probatorio que determine a qué se debió el actuar de ese individuo, configurándose agravantes o atenuantes conforme a los hechos, para tales efectos hasta antes de la inteligencia artificial, el único ser viviente que tiene manifestación de voluntad es el ser humano. Ahora bien, al surgir la inteligencia artificial, el mismo nombre señala que se trata de una inteligencia creada, entendiendo por inteligencia la capacidad de entender o comprender, en otras palabras, incluye la capacidad de resolver problemas, planear, pensar de manera abstracta, comprender ideas complejas, aprender de la experiencia. No se identifica con conocimientos específicos ni con habilidades específicas, sino que se trata de habilidad cognitiva general, de la cual forman parte las capacidades específicas; y por artificial, que no ha sido hecho por la naturaleza, sino por el ser humano u otro ser inteligente. Siendo que la inteligencia artificial es un campo de la informática que se enfoca en crear sistemas que puedan realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el razonamiento y la percepción, correspondería analizar si la responsabilidad penal recaería en la persona natural que la crea con base a un estudio que permita definir a qué se debe el hecho que constituye un daño que pueda entenderse como una conducta delictual. Surge la interrogante, quién es la persona realmente responsable por la comisión del delito de homicidio culposo, por ejemplo: los robots trans humanos a quien se le ha reconocido derechos humanos; la persona que diseñó el software y lo instaló; o quien le da mantenimiento a la máquina. Siguiendo los principios generales de Derecho Penal, el propietario de un robot o sistema dotado de inteligencia artificial no podría incurrir en responsabilidad penal, salvo que haya conocido y quiera la acción delictiva, para lo cual se requiere establecer una serie de parámetros que permitan sostener esta posición; como ocurre con las personas jurídicas, que hoy, se ha establecido en el derecho la posibilidad de que sean responsables penalmente indicando que quienes ejercen la representación de las mismas también tendría un grado de responsabilidad. No se puede negar que el uso de sistemas de inteligencia artificial puede vulnerar derechos como la igualdad, la privacidad, el debido proceso y la libertad de expresión. En ese escenario, el derecho necesita responder a los nuevos retos que se plantean y ofrecer respuestas jurídicas vanguardistas. Los grandes riesgos de la inteligencia artificial para la humanidad y para las empresas es casualmente la responsabilidad dudosa, información falsa, amenaza para la ciberseguridad, desmotivación de los trabajadores y generadora de inestabilidad, que se traducen en pérdidas de puestos de trabajo que atentan contra la dignidad humana.
Ángel Reboredo mayo 24, 2024 @
6:53 pm
La Inteligencia Artificial (IA), como la herramienta tecnológica más reciente e impactante, es capaz de aprender y decidir. Actualmente, existe la posibilidad de que la IA cometa delitos, especialmente del tipo informático o ciberdelitos. Esto la coloca en una posición donde podría sumarse a los sujetos activos del delito y dejar de ser simplemente una herramienta más. Dado este contexto, se ha planteado la necesidad de analizar y ponderar la responsabilidad penal de la Inteligencia Artificial. Sin embargo, debido a la ausencia de precedentes regulatorios nacionales, esta cuestión se convierte en una próxima y urgente frontera jurídica que debe ser regulada.
La inteligencia artificial plantea desafíos legales y éticos, y su regulación es crucial para garantizar un uso responsable y seguro de esta tecnología emergente. Es un tema que requiere una atención cuidadosa y una discusión amplia en el ámbito legal y académico.
Actualmente según mi criterio, no puede ser considerada directamente responsable desde un punto de vista penal. Las leyes penales están diseñadas para aplicarse a personas físicas y, en algunos casos, a personas jurídicas (como empresas), pero no a máquinas o algoritmos. Esto se debe a que la responsabilidad penal requiere la capacidad de intención y acción. Es por ello por lo que, la responsabilidad penal relacionada con la IA puede recaer en los desarrolladores, operadores o propietarios de la IA. Si una IA comete un acto ilícito, se podría investigar si hubo negligencia o mala praxis por parte de las personas que diseñaron, programaron, entrenaron o supervisaron la IA.
Luis Barría mayo 24, 2024 @
7:35 pm
El tema del Artículo de opinión es ¨La Inteligencia Artificial y la Culpabilidad¨, refiriéndose obviamente a la responsabilidad penal que pudiera recaer sobre una ¨inteligencia Artificial¨.
En este sentido, este es un tema que me parece altamente interesante pero debo aclarar que no lo voy a abordar solamente desde el ámbito Penal, sino de forma más olística y en el concepto de responsabilidad más amplia que pudiese tener en su desempeño diario una ¨inteligencia artificial¨, es decir Penal, civil, administrativa entre otras.
Lo primero que es importante ampliar, es el concepto de inteligencia artificial que por alguna razón -pienso yo un poco peliculezca- asociamos con artefactos metálicos o de otros materiales, con forma ¨humanoide¨ -robot-, o de alguna especie de maquinaria grande o pequeña que realice algún tipo de trabajo mecánico especializado o común en reemplazo de seres humanos reales, como se pudo observar en su momento en las películas ´Yo Robot¨, ¨Terminator¨ entre otras. Esto de robot o máquina con forma humanoide, efectivamente puede parecer lo medular en cuanto a el concepto de inteligencia artificial, o al menos una variedad prominente de inteligencia artificial; pero en realidad lo es?, en lo personal consideramos que no, o al menos no es la única ni la más relevante ya que en el fondo aquellas máquinas programadas, no son más que el medio a través del cual la verdadera inteligencia artificial se manifiesta o materializa el trabajo para el cual fue diseñada o al menos parte de éste.
La verdadera inteligencia artificial no es en sí un artefacto, maquina, humanoide metálico, robot o instrumento que realiza un trabajo determinado; la verdadera inteligencia artificial es un algoritmo inteligente y autónomo programado en el universo virtual intangible ante los sentidos del ser humano; es decir la inteligencia artificial de una forma simplemente resumida y definida, no es más que una serie de comandos y programaciones en sistemas virtuales que tienen la particularidad de, no solamente seguir algunas instrucciones básicas programadas por su diseñador humano, para realizar un trabajo determinado (como hace algunas décadas eran los primeros denominados ¨Software¨ y luego las llamadas ¨aplicaciones¨); sino que pueden al enfrentarse a problemas o cambios de realidades físicas o virtuales de su entorno, tomar sus propias decisiones y ¨autoreprogramarse¨ o cambiar sus propias programaciones para ajustarse a las realidades a las cuales se enfrentan. este sólo hecho de poder ir ¨evolucionando¨ más haya de su programación inicial es lo que básicamente los diferencia de sus ¨programas¨ predecesores y es lo que los hace ser una ¨inteligencia artificial¨ es decir son un paso más haya en la evolución.
Dicho lo anterior lo cierto es que esto es ya una realidad actual, que ha dejado a la ciencia del Derecho años luz atrás, ya que incluso en la actualidad, cuando el Derecho trata de entrar a regular esta materia (tarde, diría yo que décadas tarde¡) jurídicamente hablando aun creemos que la regulación jurídica debe dirigirse a penalizar o encontrar responsabilidad civil o de otra naturaleza en el artefacto que como ser humano, nuestros sentidos básicos entienden como la ¨inteligencia artificial¨, porque es la que observamos; cuando en realidad si ha de existir una responsabilidad o culpabilidad de cualquier tipo, debemos entender que la misma recae en el sistema que controla aquel humanoide y no en el humanoide o artefacto en sí.
Para ejemplificar nuestro planteamiento anterior, sería algo así como analizar un accidente de tránsito en donde un ser humano manejando un vehículo automotor, atropella por accidente a otro ser humano y este muere. en este caso si bien es cierto el que causo directamente la muerte del ser humano atropellado fue el automóvil en sí, porque fue quien lo golpeó, le paso por encima, lo engancho a sus fierros y lo arrastro por varios metros hasta dejarlo sin vida, por ejemplo, la realidad es que al momento de que el derecho deba encontrar al culpable penalmente, pues la culpa recaerá sobre la inteligencia natural (el ser humano que piloteaba el auto) y no sobre el auto per sé.
Expuesto lo anterior a nuestra manera de ver las cosas, desde el punto de vista jurídico, las inteligencias artificiales entran dentro de lo que nosotros entendemos en la actualidad y sobre lo cual hemos estado filosofando y escribiendo un poco, y que denominamos desde una óptica propia ¨Bienes Virtuales¨ y ¨Personas Virtuales¨. Obviamente estos términos son un análisis propio de hacia adonde debe girar el derecho sobre la base de nuestra realidad evolutiva sistémica actual; es decir a nuestro criterio, hace ya varios años existen en el mundo actual (y es algo que traspasa fronteras porque así como por ejemplo la rama del derecho denominada Derecho Ambiental debe ser visto, regulado y normado desde el concierto de las naciones porque la contaminación y los daños ambientales no conocen fronteras); haciendo el paralelismo este tema que yo denomino como un nuevo derecho, ¨EL DERECHO VIRTUAL¨, también tiene que ser regulado desde el concierto de las naciones en un momento dado ya que las inteligencias artificiales a las cuales yo denomino en algunos casos ¨Bienes Virtuales¨ y en otros casos ¨personas Virtuales¨ no conocen de fronteras y pueden estar en cualquier parte del mundo, en cualquier momento, o en todas partes al mismo tiempo (si seguimos con las ejemplificaciones peliculezcas sería algo más similar a ¨La Era de Ultrón¨, o a ¨Matrix¨).
Para mí por ejemplo una criptomoneda, un correo electrónico, un almacenamiento en la nube, o una cuenta de cualquier red social, es en realidad un bien virtual ya que obviamente tiene todas las características de lo que en derecho conocemos como ¨un Bien¨, pero no es un bien mueble, ni un bien inmueble ni un bien semoviente, ni siquiera tienen las características de bien mueble intangible como la que décadas atrás se le dio a todo lo que regula ¨El Derecho de la Propiedad Industrial¨; un ¨Bitcoin¨ por ejemplo nace, se mantiene y tiene valor incluso para intercambio en compras, pagos y demás, en la virtualidad, siempre en la virtualidad no necesita ser materializado en ningún momento, es un nuevo tipo de Bien, es un ¨Bien Virtual¨.
Por otro lado una inteligencia Artificial, cualesquiera que sea su modalidad, a nuestro criterio es en realidad ¨Una persona Virtual¨ en el fondo, porque obviamente esta tomando decisiones, actuando, pensando y así como resuelve problemas, también puede causarlos y por ende puede ser objeto de tener también todo tipo de responsabilidades jurídicas no sólo penales, sino civiles, administrativas entre otras. Hace ya más de cien años este debate se tuvo en el mundo con respecto a ¨las personas jurídicas¨ con respecto a la separación de las responsabilidades que tenían las personas jurídicas en sí y la que tenían las personas naturales que integraban de alguna manera dichas personas jurídicas; este aspecto ha evolucionado hasta nuestros días es decir más de 100 años se necesitaron no sólo para entender ¨la Ficción jurídica¨ dentro de la ciencia del derecho de la existencia (que hoy nadie niega aunque todos sabemos que eso es una ficción) de las personas jurídicas y poco a poco, desde aquellos tiempo hasta fechas mucho más recientes, las personas jurídicas (algo ficticio en realidad) tienen ya no sólo responsabilidad civil, fiscal, administrativa si no que ahora hasta responsabilidad penal.
¿Creen ustedes haciendo un análisis objetivo, profundo y sesudo, que una persona jurídica es más real que lo que ahora yo le llamo una Persona virtual?; entendiendo que le llamo persona virtual a lo que en el argot popular hoy en día denominan ¨inteligencia artificial¨, cuando una persona jurídica realmente no puede hacer absolutamente nada sin que el que realmente lo hace sea una persona natural, pero una persona virtual (inteligencia artificial) puede hacer de todo incluso pensar y tomar decisiones?
A la pregunta hecha por la Profesora Julia, respondo convencido y para concluir que Sí, las inteligencias artificiales si tiene culpa y por ende responsabilidad Penal al igual que civil, fiscal, administrativa entre otras, pero la tienen porque a mi manera de entender nos encontramos frente a algo nuevo para nosotros, algo que el derecho debe entrar a regular rápidamente a nivel mundial, algo que yo denomino: ¨Personas y Bienes Virtuales¨.
Profesor Luis Barría
Gilberto Solís González mayo 24, 2024 @
10:04 pm
La inteligencia artificial trae de manera inevitable muchas interrogantes que aún no están completamente despejadas en materia jurídica, toda vez que el cambio tecnológico ha sido veloz en los últimos años, inducido principalmente por la pandemia y la necesidad de aprovechar las herramientas tecnológicas para efectos laborales y educativos principalmente.
A priori la inteligencia artificial no tiene vida propia para razonar y tomar decisiones que lo conviertan en una persona natural o jurídica con deberes y obligaciones. Partiendo de lo anterior las responsabilidades deben ser exclusivas de sus creadores, programadores y encargados humanos.
Con la inteligencia artificial descontrolada y no regulada directamente podemos pasar de lo sublime a lo ridículo dónde la humanidad pierde su componente natural -los humanos-, por tanto al regular la materia se deben tener estas consideraciones para delimitar hasta donde la inteligencia artificial ayuda a la humanidad con las responsabilidades penales en asuntos como el planteado en el ejemplo por la Doctora Sáez.
Sin duda que es un tema en desarrollo y construcción que debemos ir evaluando con mucha cautela.
ILKA HERRERA mayo 24, 2024 @
11:40 pm
Respetada Doctora Sáenz y compañeros.
La interrogante en torno a si la inteligencia artificial puede generar responsabilidad penal, nos lleva inicialmente a analizar los dos (2) elementos que componen el cuestionamiento, que son: inteligencia artificial y responsabilidad penal.
En cuanto al concepto de inteligencia artificial, nos encontramos que como lo indican las palabras que lo componen, se trata de una máquina que posee un tipo de inteligencia “no humana”, pero capaz de emular procesos propios de la inteligencia humana, y de analizar información proporcionada por el hombre; y en base a ella, realizar determinadas acciones de forma relativamente autónoma, logrando los objetivos previstos por el hombre.
Por su parte, encontramos en términos básicos, que la responsabilidad penal es el deber de asumir las consecuencias por la comisión de un delito; entendiéndose como delito, una conducta típica, antijurídica y culpable prevista en la ley penal.
Es claro que un ente artificial NO es imputable, pues no tiene capacidad o conciencia en torno a la licitud o ilicitud de sus actos.
Dicho lo anterior, y sabiendo que la culpabilidad está integrada por la capacidad de ser imputable y el conocimiento de que la conducta es antijurídica, concluimos que de la comisión de un ilícito perpetrado a través de inteligencia artificial, NO puede generar responsabilidad penal directa respecto al ente “artificial” que despliega conductas inteligentes, producto de una programación, llegando con esto a cometer un delito.
Empero, distinto a ello, estimamos que para aquellas personas que de forma dolosa programan al ente artificial para la comisión de un delito, SI derivaría una responsabilidad penal; lo mismo que si la programación fuera deficiente, inadecuada, negligente, vacía, y que con ello mediando culpa, se cometiera un delito, por ejemplo, homicidio culposo.
Como conclusión, somos del criterio que dependerá de cada caso y sus aristas, los que podrían llevar a la determinación en torno a la responsabilidad o no del programador, pero en ningún caso para el ente artificial, pues este último desde ninguna perspectiva podría asumir las consecuencias jurídicas previstas en el Código Penal, derivadas de la responsabilidad penal.
ILKA HERRERA CIP. 3-702-228
Ricauter Noel Pitti Morales mayo 25, 2024 @
1:28 am
Más allá de tener presente que hasta el momento se habla de cuatro (4) tipos de IA, a saber: IA asistida, IA automatizada, IA aumentada y, IA autónoma, todas de las cuales resulta fácil deducir su concepto y hasta rol en la vida de los seres humanos y, en general, vivos; sí considero que la IA puede generar Responsabilidad Penal, pero no para ella como tal, sino para determinadas personas, ello, conforme a lo que a renglón seguido anotaré.
Y es que vale no olvidar que la IA es el resultado de la conformación de una conjunción de elementos, antecedentes y del estudio de comportamiento de conductas del ser humano o en general de los seres vivos, que se desarrollan y luego, servidos de la tecnología, se integran a los denominados equipos computacionales que son empleados para teledirigir o hasta operar directamente maquinarias, vehículos, naves, robots, satélites y demás, a través de la conformación de múltiples algoritmos, todos creados por el ser humano, particularmente, aquellos especialista en creación de programas o software, incluso en programación, propiamente. De allí que aun cuando la IA pudiere generar tal responsabilidad, señalar prima facie a uno de estos especialistas como responsable penalmente de una conducta considerada delictiva, llevada a cabo, en este caso, por un robot o por algún otro medio tecnológico contenido en una computadora, dirigente de las acciones y demás de un equipo o máquina, resultaría un criterio o consideración subjetiva que al ser confrontada con la intención de cualquiera de aquellos, podría escorar en temeraria y hasta infundada, dado que, seguramente su creador, siendo un ser humano, llevó a cabo su creación con una finalidad positiva, pero que ello se podría ver afectado por temas de mala intención de terceros, desprogración o desconfiguración, incluso por la alteración de su finalidad evidenciada en el programa que dio su origen, lo cual podría quedar inalcanzable, siendo que resultaría bastante difícil, por no decir imposible, determinar quién o quiénes hubieren sido el (los) ser(es) humano(s) que pudiere(n) haber incidido en la distorsión de la finalidad del bien (robot o maquinaria servida de la IA), todo lo cual, apenas podría llevar a la desconexión, o mínimamente, al reseteo de aquel, no así, llevarle a la cárcel y privarle de la libertad, como se haría con un ser humano delincuente.
Es más, queda claro que la IA surge como una herramienta tecnológica para facilitar la vida de los seres humanos en sus múltiples facetas, incluso para darle mejor posibilidad de vida a otras especies de seres vivos en la tierra, todo ello, siempre que sea empleada adecuadamente, es decir, para el fin positivo que se ha creado. De allí que vale decir que esto es como quien fabrica un cuchillo, mismo cuya finalidad parte con una intención positiva. No obstante, si quien lo compra o un tercero le da un uso diferente, es decir, que, en vez de utilizarse para partir vegetales en la cocina de un restaurante, se utiliza para causarle una herida o hasta la muerte a un ser vivo (humano), además de incurrir en un delito tipificado en la ley, estaríamos desvirtuando la razón de ser de aquel objeto, pero por lo cual, no cabría lugar a responsabilizar a su creador o fabricante.
Así entonces, más allá de concluir que la IA sí puede generar responsabilidad penal, lo cierto es que hasta ahora no se ha podido establecer una pena, derivada de un hecho punitivo para una computadora, robots, etc., propiamente, servido o no de la IA, salvo en los casos en que se hubiere podido determinar o identificar al ser humano que hubiere incidido en la configuración de aquella, caso en el cual, sería a él a quién le correspondería o corresponderá enfrentar o cumplir con la pena resultante de su conducta, a la postre, penal. De allí que, hasta lo atinente a los denominados derechos de quinta y sexta generación, resultan ser un tema de escaza definición, dado que, los mismos hasta ahora ostentan una posición abstracta, siendo que su existencia y razón de ser son el resultado de la creación de determinados seres humanos (creadores de software y programadores informáticos), es decir, con capacidades especiales forjadas con estudios y aparejadas de habilidades, no así, como la creación de los seres humanos, misma que es el resultado de la unión de cromosomas y demás, de hombres y mujeres que, por conjugados da como resultado su creación, no importando hoy si es a través de la unión o relación sexual entre el uno y el otro, sino bastando el procedimiento científico de fecundación, misma que, si bien, puede ser asistida por la IA, no se compara con el surgimiento de esta última.
Nelson E. Ortega De La Cruz mayo 25, 2024 @
7:13 am
El desarrollo, avance e implementación de la IA para la utilización en el diario vivir implica una necesaria interacción en tiempo real entre las personas humanas, robots y los trans humanos; sin embargo, estos dos últimos constituyen una invención desarrollada necesariamente por el primero. La funcionabilidad, operatividad y todo su desempeño de éstas será previamente establecido por un programador o desarrollador que para los efectos podría considerarse el «padre» de éstas. Es decir que, el desarrollador dispuso previamente los elementos o puntos de conexión que la IA debe relacionar para entonces dar una respuesta a la interrogante planteada, no es un pensamiento autónomo sino basado en los llamados «algoritmos» y, es que, el ser humano su actuar en la mayoría de los casos se basa en la costumbre; sin embargo, no puede obviarse la espontaneidad con la que reaccionamos antes una situación inesperada o inédita, precisamente eso es lo que nos diferencia de una IA.
Es en esa medida una IA, actuará luego de analizar nuestra data, de allí que, puede en base a probabilidades coincidir nuestro actuar. Pero la forma en que una IA interactuará ante una situación determinada será establecida por un ser humano en esa línea lo corresponderá determinar si se llega a generar una posible comisión de un delito es si la IA actuó de acuerdo a los programas aplicados o si éste de alguna forma fue alterado deliberadamente posiblemente con la inserción de un «virus» a su sistema operativo lo cual pudo generar esta comisión de un delito, lo cual nos dirigirá hacia una persona humana que en base a esa paternidad considero que podría llegar a ser responsable penalmente.
MARIA ANTONIETA ADAMES mayo 25, 2024 @
7:35 am
Saludos cordiales estimados participantes. Luego de la lectura del artículo en cuestión y de los comentarios vertidos en este foro, mis aportes son los siguientes: En definitiva, cuándo nos referimos a la culpabilidad o responsabilidad penal en materia de IA, tendría que considerar previamente, el dolo en la acción u omisión (tipo penal, previamente y debidamente descrito) además del sujeto que lo realiza. Ante estos elementos, la realidad es que como bien sea ha dicho en la actualidad no están regulados ni el tipo penal ni la consideración del sujeto per se, llámese robots, llámese transhumano, llámese software. Lo que considero, es que el daño doloso injustamente causado por el medio o mecanismo utilizado está regulado en nuestra legislación penal, y en ese sentido, responderá quien sea responsable de la creación o aplicación de la IA en una situación concreta. Darle categoría de persona autónoma con plena capacidad jurídica es peligroso desde mi punto de vista. Bien decíamos que no todas las personas son humanas, aludiendo al reconocimiento de las personas naturales y jurídicas, pero considerar a la IA ya no por ficción jurídica, si no por capacidad de plena de autonomía para conducirse sobre lo bueno y lo malo, lo justo e injusto es sobrevalorar su funcionalidad y anular la responsabilidad de programador, creador o quien lo aplique. Al final a estos niveles el registro implicará el nombre de la persona responsable previamente, al igual que el uso de vehículos autónomos o naves martitimas.
Aarón Pérez mayo 25, 2024 @
7:54 am
El desarrollo y avance tecnológico ha realizado que se transforme la sociedad en que vivimos, haciendo que interactuemos, trabajemos con nuevas herramientas tecnológicas que han hecho que surjan nuevas conductas, nuevos actores nuevas víctimas, que han hecho el surgimiento de los “ciberdelitos”. En este proceso de desarrollo y avance tecnológico ha surgido la Inteligencia Artificial (IA), como disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico. Es por ello, que nuestro país ha procurado adaptarse, a tal punto, que fue aprobada el Convenio de Budapest como Ley de la República mediante la Ley 79 del 22 de octubre 2013, que es un tratado internacional creado en el año 2001 e impulsado por el Consejo de Europa, con el objetivo de incrementar la cooperación internacional y generar marcos legales armónicos entre las naciones con el objetivo de hacer frente a los delitos informáticos y a la actividad criminal en internet. Este Budapest crea unas de figuras delictivas que sirven a los Estados para adecuar estas a su realidad social particular, como los Delitos contra la confidencialidad, la integridad y la disponibilidad de los datos y sistemas informáticos, sobre Delitos Informáticos, sobre Delitos relacionados con el contenido, sobre Delitos relacionados con infracciones de la propiedad intelectual y de los derechos afines. En este sentido, posterior a lo planteado, soy del criterio que estas herramientas tecnológicas existen y se siguen desarrollando para el uso cotidiano, para mejorar la calidad de vida, la productividad y el desarrollo de nuevas tendencias en la modernidad. Sin embargo, pueden ser utilizadas para cometer “ciberdelitos” y es por ello, que soy del criterio que la Inteligencia artificial puede generar responsabilidad a quien lo utilice en el desarrollo de una conducta que se encuentra tipificada en nuestro código penal, como los delitos Informáticos son aquellos que se cometen a través del uso de las Tecnología de la Información para su cometido. Tal es el caso, como los delitos de extorsión, estafa, suplantación de identidad, robo de datos personales, entre otras y que son perseguidas e investigadas por el Ministerio Público.
La inteligencia artificial es la consecuencia de una etapa del desarrollo histórico de la humanidad; tal como lo fue la revolución industrial o el iluminismo; es una etapa necesaria en el camino del progreso tecnológico. múltiples disciplinas se plantean el marco de nuevos parámetros respecto a la convivencia social, las relaciones humanas tienen un cambio y un nuevo reto. La bioética, la filosofía, la metafísica, la ontología son ejemplos de un reordenamiento para analizar el papel de la inteligencia artificial. El derecho y el derecho penal en especial no escapa de este abrupto cambio, el concepto tradicional del DOLO es a mi juicio el elemento diferenciador en esta disciplina legal y es que a partir de este elemento, podemos anclar las bases de la responsabilidad sin embargo, debemos tener claridad sobre aspectos determinados por ejemplo: La Inteligencia Artificial no es un sujeto de derecho y no tiene personalidad jurídica en este momento, la responsabilidad penal por las infracciones cometidas utilizándola se imputaría a las personas físicas que utilizaran esta tecnología, o bien a aquellas que la programan para delinquir. Considero que según el ejemplo planteado, la responsabilidad se limitará dependiendo el estudio técnico sobre lo que ocasionó el hecho penal; si la causa fue la mala programación o si lo fue la falta de mantenimiento o bien la impericia de quien realiza la cirugía. lo que es necesario y genera un apuro fundamental, es ir adecuando nuestra legislación en dicha vía; hacer los desarrollos jurídicos y los campos técnicos sobre la nueva realidad a fin de que se aporte una base de acuerdo a las nuevas tendencias, entendiendo que la delincuencia siempre está a la vanguardia. otras legislaciones lo han estado haciendo por ejemplo «la Resolución de 16 de febrero de 2017 del Parlamento de la UE, sobre las normas de derecho civil de la robótica, indica en el párrafo 59 f, que se reconocerá la llamada «e-personalidad» o «personalidad electrónica» de tales robots y les imputará una responsabilidad o culpabilidad propia. Y el Convenio de Budapest sobre Ciberdelincuencia establece que los Estados firmantes adoptarán las medidas legislativas o de otro tipo que se estimen necesarias para permitir que las personas jurídicas puedan ser tenidas por responsables de las infracciones establecidas en el presente Convenio, cuando estas sean cometidas por una persona física, actuando ya sea a título individual, ya sea como miembro de un órgano de la persona jurídica.»
Mónica Lozada Estrada mayo 25, 2024 @
9:56 pm
La I.A. supone el análisis, tratamiento y procesamiento de datos o información similar o «superior» a la inteligencia humana, ello a pesar de que no se ha terminado de conocer y explicar completamente esta última y sus enigmas. En efecto, la IA supone la capacidad de ejecutar instrucciones y también ostenta un grado de autonomía que puede ser más o menos mayor. En cuanto a la I.A. en el ámbito del Derecho Penal, por un lado, esta es utilizada en el área policial para para combatir el crimen, ayudar identificar a los criminales, también se usa para prevenir delitos. Por ejemplo, la utilización de I.A. para ubicar a posibles agresores sexuales, simulando con I.A. a una menor para identificar a las personas que intenten entablar comunicación con esta para sus fines reprochables e ilícitos. Por otro lado, así como se usa contra la delincuencia, esta última emplea a la I.A. para cometer ilícitos e incluso para promoverlos. En este sentido, y siguiendo con el caso de los delitos sexuales perpetrados contra menores, en la deep web se utiliza también inteligencia artificial simulando menores de edad y se ofrece el acceso a esta IA por un precio que es pagado por algunas personas para interactuar y simular conductas ilícitas. Estimamos que si bien, no se trata de personas naturales, sino de IA esto incentiva a delinquir. La IA puede utilizarse para cometer actos de terrorismo a través de armas autónomas (piénsese en los drones «suicidas» y drones de combate dotados de IA); estafas a través de la simulación de la identidad o la voz de una persona; entre otros delitos. En cuanto a la responsabilidad penal, la cuestión no genera tanto debate si se trata de IA con menor grado de autonomía, en que se pudiera decir que cumple con la función de un instrumento para cometer el delito; sin embargo, cuando se trata de IA autónomas, el panorama no resulta tan claro. Algunos propugnan por otorgarles un tratamiento similar al de las personas jurídicas que delinquen, otros niegan que pueda achacarse responsabilidad penal a estos sistemas autónomos, ya que al no ser personas naturales, no tiene conocimiento de la antijuridicidad de sus acciones, ni nociones éticas o morales, no tienen conciencia del bien o mal. No son capaces de actuar con dolo, en el sentido de querer el resultado del hecho punible. Un caso interesante para mencionar sería en del la I.A Deep Mind de Gloogle, que fue puesta a competir con otra IA recogiendo manzanas con su propio ingenio, de lo que resultó que Deep Mind utilizó rayos laser para eliminar a su oponente y apropiarse de las frutas que su oponente recogió, todo ello sin la ayuda del ser humano. Lo cual supone un grave peligro para las personas, si en ese ejemplo la competencia se hubiera dado con un humano.
Por otro lado, supongamos que se le declare responsable a una IA, es disparatado pensar en aplicarle una pena de prisión o buscar la «resocialización» de la misma, etc. Con lo cual, preliminarmente consideramos que al no estar dotadas de personalidad no puede imputársele a una IA «autónoma» responsabilidad penal, más allá de la que quepa aplicar a quienes la utilicen como un medio para delinquir en los casos de IA con menor grado de autonomía. Lo que es un hecho es que esta problemática debe ser contemplada en la legislación de manera que pueda darse respuestas a las implicancias que plantea.
mayo 22, 2024 @ 1:38 pm
La inteligencia artificial (IA) está cada vez más integrada en diversos ámbitos de la sociedad, desde la medicina y la automoción hasta la banca y el entretenimiento. Este avance tecnológico plantea la cuestión de si la IA puede generar responsabilidad penal.
Análisis Jurídico
Naturaleza de la IA: La IA es una tecnología desarrollada y operada por seres humanos. Aunque puede tomar decisiones autónomas basadas en algoritmos y datos, carece de conciencia, intencionalidad y capacidad moral, características fundamentales para atribuir responsabilidad penal en la mayoría de los sistemas legales.
Responsabilidad Penal Tradicional: La responsabilidad penal tradicionalmente recae sobre personas físicas o jurídicas que cometen actos ilícitos con dolo o culpa. Y como vimos en la sesión sincrónica del Sábado pasado, incluso la responsabilidad penal de las personas jurídicas se encuentra aún en una etapa muy infante respecto de su desarrollo y regulación.
A nuestro mejor entender, en el caso de la IA, por razón de la ausencia de conciencia, intencionalidad y capacidad moral, se deben identificar los sujetos responsables de su desarrollo, implementación y supervisión como posibles autores de un hecho punible relacionado a la AI. Por ejemplo:
1. Desarrolladores y Programadores: Podrían ser responsables si la IA fue programada de manera negligente o con la intención de cometer actos ilícitos.
2. Operadores y Usuarios: Si usan la IA de manera inapropiada o sin las medidas de seguridad adecuadas, también podrían ser responsables penalmente.
3. Empresas: Las personas jurídicas pueden ser responsables si se demuestra que no implementaron controles adecuados para evitar el uso indebido de la IA. Básicamente el incumplimiento del «Cumplimiento o Compliance», visto en la sesión anterior.
Regulación y Normativa:
Actualmente, Panamá es uno de los muchos sistemas legales que no prevén explícitamente la responsabilidad penal de la IA, pero hay un movimiento hacia la creación de marcos regulatorios que aborden estas cuestiones. Podemos mencionar algunos ejemplos:
a. En la Unión Europea, está la Directiva de Responsabilidad por Productos Defectuosos (UE): La cual podría aplicarse si la IA se considera un producto defectuoso.
b. Regulaciones Específicas de IA: Algunos países, como Estados Unidos de América, están desarrollando regulaciones específicas para abordar los riesgos asociados con la IA y establecer responsabilidades claras.
Ejemplos Prácticos:
– Vehículos Autónomos: Si un vehículo autónomo causa un accidente, se debe investigar si hubo fallos en el software, errores humanos en el mantenimiento o falta de supervisión adecuada. En el caso del campo marítimo, están los buques autónomos, que sin o poca tripulación abordo, navegan por las aguas jurisdiccionales de países ribereños, sin embargo, este tópico sigue siendo un reto de regulación.
– Sistemas de Diagnóstico Médico: Si una IA proporciona un diagnóstico incorrecto, la responsabilidad puede recaer en los desarrolladores del software, los profesionales médicos que lo utilizaron sin validación adecuada, o la institución que implementó el sistema.
En cuanto a la imputabilidad penal, somos del criterio que se requiere la capacidad de actuar con intencionalidad y comprender la naturaleza del acto ilícito. Un robot transhumano, aunque avanzado, no tiene la capacidad de formar intención criminal ni de comprender el impacto moral o legal de sus acciones. Esta carencia de capacidad cognitiva y moral impide que sea considerado un sujeto de derecho penal.
La mayoría de los sistemas legales actuales no contemplan la posibilidad de imputar responsabilidad penal directamente a máquinas o sistemas de IA. Sin embargo, existen discusiones sobre la necesidad de desarrollar marcos regulatorios específicos para abordar estos casos, asignando responsabilidades claras a los humanos detrás de estas tecnologías. Un ejemplo sería Japón, pues está avanzando en la creación de un marco regulatorio para la IA y la robótica, que incluye directrices sobre la responsabilidad en caso de mal funcionamiento o uso indebido de estas tecnologías.
Conclusión
Desde nuestra comprensión, la IA en sí misma, como entidad tecnológica, no puede ser sujeto de responsabilidad penal debido a su falta de intencionalidad y capacidad moral. Sin embargo, las personas y entidades involucradas en su desarrollo, implementación y uso pueden ser responsables penalmente si se demuestra negligencia, dolo o incumplimiento de regulaciones. La creación de un marco regulatorio específico para la IA es crucial para abordar estas cuestiones y garantizar la seguridad y responsabilidad en su uso.
Finalmente, sobre el escenario del robot transhumano, somos del criterio que no puede ser sujeto de responsabilidad penal debido a su incapacidad para actuar con intencionalidad y entender la moralidad de sus acciones. La responsabilidad penal recae en los humanos involucrados en su desarrollo, implementación y uso. Es crucial que se desarrollen marcos regulatorios específicos para abordar estos desafíos y garantizar que las innovaciones tecnológicas se utilicen de manera segura y ética.
mayo 22, 2024 @ 3:23 pm
La inteligencia artificial (IA) puede generar responsabilidad penal, pero su aplicación en el derecho penal es un campo en ascenso que plantea oportunidades y desafíos. La IA puede ayudar en el análisis de datos legales para detectar patrones y proyecciones, lo que puede ser útil para la prevención del delito y las decisiones escogidas, en casos penales. Sin embargo, su implementación requiere abordar temas como la transparencia, la equidad y la protección de la privacidad, y establecer un equilibrio entre la aplicación de la tecnología y la toma de decisiones humanas basadas en el juicio y la experiencia. En cuanto a la responsabilidad penal de la IA, existen diferentes modelos de responsabilidad sugeridos, como el modelo de agencia indirecta, que considera a la IA como una herramienta inocente sin responsabilidad penal, y el modelo de responsabilidad directa, que sugiere que la IA puede ser castigada como los humanos. Sin embargo, no existen regulaciones claras sobre la responsabilidad penal de la IA, y se debate qué tipo de castigo podría recibir si se acepta la responsabilidad penal en el futuro. En el ámbito de la responsabilidad penal corporativa, se plantea la cuestión de si la inteligencia artificial autónoma puede generar responsabilidad penal para las personas jurídicas, y cómo se debería abordar este tema en el marco legal. En resumen, la IA puede generar responsabilidad penal, pero su aplicación en el derecho penal requiere un enfoque cuidadoso y regulado para garantizar que se respeten los derechos fundamentales y se mantenga la integridad del sistema de justicia.
mayo 22, 2024 @ 4:20 pm
La Inteligencia artificial, es una realidad a la cual, no podemos escapar para nadie es un secreto que ha llegado para quedarse, ahora bien, el debate dentro del Derecho Penal va girar en torno al dolo, y por esto, nuestro doctrina penal la define como la maquinación o la intención para hacer daño, si esto es así, y no encontramos ante un procedimiento quirúrgico en donde el robot no cumple con un procedimiento, entonces nos encontramos ante la presencia de negligencia, pero si al analizar la figura de un robo el robot se encuentra programado para ser violento entonces deberíamos ver la responsabilidad penal del programador, sin embargo, no podemos pasar por alto que cada día el pensamiento del robot es mas autónomo colocando nos en una encrucijada sobre la responsabilidad de la inteligencia artificial, finalmente se llegara aun punto en donde sera perfectamente viable la responsabilidad de la Inteligencia artificial a medida que la tecnología aumenta.
mayo 22, 2024 @ 6:39 pm
CONSIDERA USTED QUE LA INTELIGENCIA ARTIFICIAL PUEDE GENERAR RESPONSABILIDAD PENAL.
Ejemplo del robot con forma humana, donde se le ha incorporado un sotfware para que lleve a cabo una cirugía de corazón abierto, pero el día que realiza la cirugía, obvia una fase del procedimiento quirúrgico y el paciente fallece en el salón de operaciones.
¿De quién es la responsabilidad por la comisión del delito de homicidio culposo?
A los robots trans humano
A la persona que diseño el sotfware y lo instaló
A quien le da el mantenimiento a la máquina.
En la actualidad la IA en sí no puede ser considerada responsable penalmente, toda vez que no puede atribuírsele esa responsabilidad penal por su falta de intencionalidad y conciencia, más si a las personas que o entidades que desarrollan implementan y operan estos sistemas pueden ser responsables penalmente en caso de encontrar negligencia o mala praxis.
La responsabilidad penal podría atribuírsele en caso de que existiera un marco legal a los operadores que crean y programen sistemas de IA, en caso de que causen daño alguno debido a fallos o diseño, por la programación, por negligencia en el desarrollo del proceso. Igualmente serán responsables las personas o entidades que controlen o utilicen la IA, por el uso indebido, la falta de mantenimiento o el mano incorrecto del sistema de IA.
Las empresas que desarrollan venden o utilicen sistemas de IA, pueden ser responsables penalmente si se determina que hubo una negligencia en la creación, falta de monitorio en el sistema, etc.
Es importante el desarrollo de marcos legales adecuados y adaptados a las leyes existentes, introduciendo nuevas normas penales de responsabilidad penal, en nuestro País, por los desafíos y evolución relacionados con la IA. Toda vez que el uso incorrecto puede ocasionar daños, perjuicios a una persona natural o jurídica, sin que exista una regulación que pueda sustentan y atribuírsele responsabilidad penal.
mayo 22, 2024 @ 7:34 pm
Buenas noches, bendiciones para todos.
Partiendo de la premisa de que en nuestro país la Inteligencia Artificial (IA) no es un sujeto de derecho, ni se le reconoce una personalidad jurídica; entonces la responsabilidad penal por las infracciones cometidas, se imputarían a las personas físicas que utilizan esta tecnología, o que la programan para delinquir.
Considero que la IA sí puede generar responsabilidad penal, ya que probablemente puede cometer delitos del tipo informático o ciberdelitos, sumándose a los sujetos activos del delito; esta probable responsabilidad penal de la IA frente a irresolubles y variados casos cometidos por ésta, y dada la ausencia de precedentes regulatorios nacionales, permite inducir necesariamente una urgente regulación jurídica.
Quiero citar el Convenio Internacional de Budapest sobre Ciberdelincuencia donde establece que los Estados firmantes adoptarán las medidas legislativas o de otro tipo que se estimen necesarias para permitir que las personas jurídicas puedan ser tenidas por responsables de las infracciones establecidas en el presente Convenio, cuando estas sean cometidas por una persona física, actuando ya sea a título individual, ya sea como miembro de un órgano de la persona jurídica.
Por todo ello considero que es necesario legislar sobre esta materia; en particular, unas normas éticas deben presidir la programación de la IA y situar al ser humano en el centro de su programación. Y también unas causas tasadas que permitan solicitar judicialmente el apagado de la IA, por si algo deja de funcionar bien.
En conclusión, las consecuencias probables de responsabilidad penal de la IA en términos generales y de lógica jurídica, no podrían ir más allá de como sucede en el caso de los menores de edad, o menos aún en cuanto a sanciones se trata. La posibilidad de que ésta se regule facilitaría acciones de política criminal, actualización legal y normativa, estrategias y programas de prevención, asignaturas de alfabetización, actualización y capacitación como parte de las políticas públicas; para que dicha regulación de orden penal deba realizarse, es importante saber que la teoría jurídica actual en nuestro país que proponga en su momento regular a la IA es empírica y escasa, e incompleta en cuanto a consideraciones en derecho penal se trata.
YESSID BUITRAGO
mayo 22, 2024 @ 10:26 pm
Una vez concluída la lectura del artículo de opinión «Inteligencia artificial y culpabilidad» y atendiendo la interrogante planteaada ¿Considera usted que la inteligencia artificial puede generar responsabilidad penal?, emito mí consideración al respecto.
Por inteligencia artificial se tiende a conceptualizar como el sistema para tratamiento y análisis de la información, generlalmente con soporte informático, alimentado por humano con rol de programador.
El tema de la Inteligencia Artificial en adelante AI, concordando con la Dra. Julias Zaénz, es de gran actualidad y sobre todo relevancia, mismo que amerita con prontitud ser tratado de forma urgente por todos los sectores de la sociedad que tengan participación en el mismo, implicando a su vez que cualquier avance que se realice sobre el tema, involucra solventar con rapidez todo lo relacionado al mismo, ya que en el sector tecnológico el actuar con prontitud y con algo de previsión a futuro se hace necesario por el avance constante que se desarrolla en este ámbito.
En lo que respecta al ámbito del derecho en general en nuestro país, no se ha legislado de forma precisa sobre la IA, existen algunas normas que de alguna forma se relacionan dado el carácter del medio tecnológico y la actividad que se efectúa con su empleo, por ejemplo la ley de comercio electrónico 51 de 22 de julio de 2008, la ley de protección de datos personales o la 81 de 26 de marzo de 2019, que entró a regir en marzo de 2021, le resolución No.004-2021-NRA-DG-AAC de 13 de abril de 2021, de la Autoridad de Aeronáutica Civil de Panamá, que establece requísitos para la operación de los sistemas de aeronaves pilotadas a distancia (Drones). Sin embargo, como se indicó, de modo digamos leve se relaciona al tema, más no es especificamente sobre e mismo.
La ausencia de legislación en el país, no es algo que solo ocurre en Panamá, muchos países no cuentan con instrumemento normativo que regule la IA de modo preciso, incluso países donde el empleo de la IA se lleva a cabo a niveles no comparables con regiones vastas de la tierra, como el caso de Estados Unidos, Europa, Japón y China, se han efectuado avances sobre la regulación de la IA; empero, aún se encuentra en fase incipiente.
En el caso de Estados Unidos, el 1 de enero de 2021 se promulgó la ley de iniciativa nacional de IA, con el fin coordinar todas las actividades de investigación y educación sobre IA, en el 2022 se publicó un proyecto de carta de derechos de la IA, no vinculante, busca establecer los principios que deben regir el sistema de IA, para proteger los derechos de las personas frente al mismo. Actualmente se recaban comentarios públicos, especie de consulta para adoptar posibles medidas de regulación y responsabiilidad para la IA como el Chat GPT.
La Comisión Europea, presentó en abril de 2021 un paquete de medidas sobre IA, en el que se encuentra uno relacionado a IA, que contiene propuesta de regulación sobre la materia en la Unión Europea, lo mencionado fue con la intención de precisar que no estamos ante un tema que no amerite atención y que no sea de actualidad, siendo así que en Panamá con se indaga, en nuestro código penal, no existe normas desarrolladas sobre la responsabilidad penal de la IA; empero, atendiendo por ejemplo que la acción efectuada en detrimento de una persona natural o jurídica por IA controlada, aplicada o desarrollada por un persona Jurídica, se cuenta con una incipiente a su vez norma de aplicación y atribución de resposabilidad penal a la Persona Jurídica, podría haber alguna respuesta, pero no de modo directo que se reconzca responsabilidad penal a la IA, en donde si con respecto a lo indicado de la Persona Jurídica, no se cuenta con una estructurada y debidamente desarrollada doctrina, así como norma penal, mucho menos en el ámbito de la IA.
Importante acotar que la IA de acuerdo a su empleo se considera Asistida, aquella que se usa para ayudar a los humanos en la realización de tareas, como elección de hojas vida, contratación. La Automatizada, empleada para organizaciones empresariales o negocios, la Aumentada con la que se facilita la toma de decisiones, aprendiendo de la interacción que se lleva acabo, aquí se encuentran los buscadores o navegadores, redes sociales y la Autónoma que tiene la capacidad de procesar la infrmación, tomar decisiones sin intervención humana, con programación de algoritmos que buscan suplir de la capacidad de descirnimiento, pensar, sentimientos e interacción individual o propia, en esta última encontramos los vehículos autonómos, drones, robots, entre otros. Implica que la IA a la que la responsabiidad penal debe aplicarse, es aquella que actúa de modo particular o modo autónomo y toma decisiones que pueden ocasionar daño de cualquier naturaleza a una persona, ya que al tratarse de las otras formas de IA al causarse alguna situación de afectación de derechos, generalmente es producto del accionar directo de otra persona que controla el medio empleado de la IA.
mayo 22, 2024 @ 11:15 pm
El día que la inteligencia artificial se desarrolle por completo podría significar el fin de la raza humana. Funcionará por sí sola y se rediseñará cada vez más rápido. Los seres humanos, limitados por la lenta evolución biológica, no podrán competir con ella y serán superados”. Stephen Hawking, citado por Alejandra Morán Espinosa (2021)
Considera usted que la inteligencia artificial puede generar responsabilidad penal?
Considero que en la actualidad no se podría de acuerdo a los tipos penales existentes generar una responsabilidad dirigida a la inteligencia artificial como ente autonomo, en la diversas de forma que pueda manifestarse que es más allá que un robot, máquina, etc., dado que deben debe cumplir con todos los elementos del delito, incluyendo a los ciberdelitos. La propuesta sería coincidiendo con algunos autores sería “Analizar y ponderar los elementos fácticos actuales, para proponer su regulación especial a través de dos vertientes principales: 1. La creación de un tercer tipo de persona jurídica – “la persona artificial”-, y 2. La probable responsabilidad penal (IA) -frente a irresolubles y variados casos cometidos por ésta-, y dada la ausencia de precedentes regulatorios nacionales, permite inducir claramente como la próxima, apremiante y urgente frontera jurídica a regular2.
Para ilustrar el aporte en el foro comparto algunos casos emblematicos que se han dado a nivel internacional que nos plantean el desafío de regular, control y hasta tipicar algunas conductas a través del Derecho Penal:
– 2018, el año en que se sucede el primer accidente mortal a un ser humano que protagonizó un vehículo autónomo de la empresa Uber, en Arizona, cuya pasajera no pudo evitar y que detonó la discusión de quién era el responsable jurídico, la empresa UBER, el dueño del vehículo, la automotriz que lo diseño o incluso si el auto que es guiado por IA podría ser responsable.
– En 2019, en Hungría, se cometió el primer delito con ayuda de una IA, al realizar una simulación de la voz de un CEO para solicitar un depósito urgente de 243,000 euros entre una empresa eléctrica y un proveedor que efectivamente se realizó.
Hay bibliografía que alertar que en el futuro la tecnología tendrá una presencia y acción determinante en la realización de delitos (J P, E. “Los robots, mayores delincuentes en 2040”, nota informativa en web, (13 de septiembre del 2016), El Universal, México, [Consultado en septiembre 30 del 2020], Disponible en: https://www.eluniversal.com.mx/articulo/ ciencia-y-salud/tecnologia/2016/09/13/robots-cometeran-mas-delitos-que-seres-humanos-en-2040)
Se han realizado propuestas a nivel internacional para regular está situación y otra consideración para ponderar la regulación de la responsabilidad penal de una IA es que existe la posibilidad que una persona moral pueda ser responsable penalmente si a través de ésta o usando su representación, se ha cometido o facilitado la comisión de un delito.
Es indudable la la necesidad de regulación y actualización de las normas incluyendo las penales para garantizar un control y generar responsabilidad en posibles conductas derivadas de la inteligencia artifical que son provocadas en algunos casos por personas naturales (a quienes se les puede responsabilizar) pero no a un ente abstracto creado a través de inteligencia artifical.
Interesante la referencia encontrada sobre que es aplicable los aspectos de la responsabilidad penal como el caso los menores de edad e inimputables, ya que es similar “puede tener conocimiento, pero no conciencia ya que ésta es una capacidad naturalmente humana aún no emulada por la IA, aun cuando al parecer, no estemos muy lejos de ello”.
mayo 22, 2024 @ 11:47 pm
A medida que la IA se vuelve más omnipresente en diversos aspectos de la sociedad, incluidos el transporte autónomo, la atención médica y la justicia, surge la necesidad de establecer claridad sobre las implicaciones legales de sus acciones.
En primer lugar, es importante reconocer que la responsabilidad penal tradicionalmente ha recaído en individuos que poseen la capacidad de tomar decisiones conscientes y tener intenciones. Sin embargo, la IA presenta un desafío único en este sentido, ya que los sistemas de IA pueden operar de manera autónoma, tomando decisiones complejas sin una intervención humana directa.
Desde una perspectiva legal, la atribución de responsabilidad penal en casos relacionados con la IA puede ser complicada. Por un lado, los desarrolladores y propietarios de sistemas de IA podrían ser considerados responsables si se demuestra que la IA actuó de manera defectuosa debido a un diseño o implementación negligentes. Esto plantea la cuestión de si los diseñadores de IA deberían ser responsables de prever y mitigar posibles resultados no deseados de sus sistemas.
Por otro lado, surge el desafío de establecer responsabilidad cuando la IA actúa de manera autónoma y causa daño o comete delitos sin intervención humana directa. En estos casos, la atribución de responsabilidad se complica por la falta de intencionalidad o conciencia en la IA. Los sistemas legales aún están en proceso de adaptación para abordar estas situaciones, y se necesitan marcos legales y regulaciones que establezcan la responsabilidad y las consecuencias legales en casos específicos de comportamiento de IA.
En conclusión, si bien la inteligencia artificial plantea desafíos únicos en términos de responsabilidad penal, desde mi punto de vista no genera responsabilidad penal puesto que no podríamos identificar con claridad si el delito fue intencionalmente provocado con dolo o simplemente es un delito culposo. La asignación específica de la responsabilidad penal puede variar según las circunstancias y la jurisdicción ya que es necesario que se encuentre debidamente tipificado en nuestro código para poder identificar esta responsabilidad que puede recaer sobre aquellas personas que sean propietarios o desarrolladores del equipo, operadores y/o supervisores de la tecnología o los robots.
mayo 23, 2024 @ 11:18 am
Con respecto al tema señalado, algunos autores consideran que la Inteligencia Artificial (IA) es un conjunto de conceptos y capacidades intelectuales y cognoscitivas, ingresadas en sistemas y softwares con el fin de ser analizadas, sintetizadas y procesadas por equipos tecnológicos, que realizan actividades equiparables con las actividades intelectuales de los seres humanos. Por tal razón, como actividad que influye en los actos de los seres humanos de forma indirecta, se debe tener presente algunos elementos que probablemente por uso, pueden afectar algunos derechos o, provocar resultados no esperado, que lesionen la integridad física, emocional ética o legal de personas, tanto jurídicas como naturales; en consecuencia, aquellos actos que lesionan derechos adquiridos deben ser regulados y procesados por los procedimientos correspondientes que reparen el daño o lesión, aunque éstos sean cometidos por maquinas.
En este contexto, se puede mencionar que ya se han dado los primeros actos con respecto a una regulación en esta materia, por medio del Consejo de Europa, quién adopta el primer tratado internacional sobre Inteligencia Artificial, llamado Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho; que consiste en el primer tratado internacional jurídicamente vinculante, el cual trata de garantizar el respeto a los derechos humanos, acorde a los usos y sistemas de inteligencia artificial.
Este tratado trata de abarcar a todos los Estados y el ciclo de procesos que pueden provocar riesgos en contra de los derechos de las personas, y en el cual se describen, los riesgos que se pueden ocasionar al diseñar, desarrollar, utilizar y procesar la información y describe aquellas figuras jurídicas y los actos que indican el decomiso de los sistemas y equipos, por daños a los derechos en general.
La problemática posiblemente existente sobre el uso y los riesgos de provocar lesiones a los derechos adquiridos, radica en que los avances tecnológicos evolucionan rápidamente y de manera creciente, en tanto que los procesos de creación y desarrollo de las normas y reglas jurídicas para regular estas actividades tienen sus procesos y los mismo son muy lentos, comparado con el desarrollo de la tecnología, por lo que los daños y lesiones a los derechos establecidos irá en aumento a medida que se desarrollan nuevas tecnologías.
Consideramos que este convenio, el Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y derechos humanos, democracia y Estado de derecho, permite un avance significativo, el cual establece un mecanismo de supervisión independiente, para vigilar, supervisar y controlar, que se cumpla con el respeto a los derechos humanos y con las reglas del convenio, que garanticen que las actividades respeten el derecho internacional, las instituciones y los procesos democráticos, además indica que se sensibilice y estimule un debate público informado, que lleven a cabo consultas con múltiples partes interesadas sobre cómo debería ser utilizada la tecnología de la IA.
mayo 23, 2024 @ 2:01 pm
Una vez concluida la lectura del artículo de opinión «Inteligencia artificial y culpabilidad» y atendiendo la interrogante planteada ¿Considera usted que la inteligencia artificial puede generar responsabilidad penal?, emito mí consideración al respecto.
Por inteligencia artificial se tiende a conceptualizar como el sistema para tratamiento y análisis de la información, generalmente con soporte informático, alimentado por humano con rol de programador.
El tema de la Inteligencia Artificial en adelante AI, concordando con la Dra. Julias Sáenz, es de gran actualidad y sobre todo relevancia, mismo que amerita con prontitud ser tratado de forma urgente por todos los sectores de la sociedad que tengan participación en el mismo, implicando a su vez que cualquier avance que se realice sobre el tema, involucra solventar con rapidez todo lo relacionado al mismo, ya que en el sector tecnológico el actuar con prontitud y con algo de previsión a futuro se hace necesario por el avance constante que se desarrolla en este ámbito.
En lo que respecta al campo del derecho en general en nuestro país, no se ha legislado de forma precisa sobre la IA, existen algunas normas que de alguna forma se relacionan dado el carácter del medio tecnológico y la actividad que se efectúa con su empleo, por ejemplo la ley de comercio electrónico 51 de 22 de julio de 2008, la ley de protección de datos personales o la 81 de 26 de marzo de 2019, que entró a regir en marzo de 2021, le resolución No.004-2021-NRA-DG-AAC de 13 de abril de 2021, de la Autoridad de Aeronáutica Civil de Panamá, que establece requisitos para la operación de los sistemas de aeronaves pilotadas a distancia (Drones). Sin embargo, como se indicó, de modo digamos leve se relacionan al tema, más no es específicamente sobre el mismo.
La ausencia de legislación en el país no es algo que solo ocurre en Panamá, muchos países no cuentan con instrumento normativo que regule la IA de modo preciso, incluso países donde el empleo de la IA se lleva a cabo a niveles no comparables con regiones vastas de la tierra, como el caso de Estados Unidos, Europa, Japón y China, se han efectuado avances sobre la regulación de la IA; empero, aún se encuentra en fase incipiente.
En el caso de Estados Unidos, el 1 de enero de 2021 se promulgó la ley de iniciativa nacional de IA, con el fin coordinar todas las actividades de investigación y educación sobre IA, en el 2022 se publicó un proyecto de carta de derechos de la IA, no vinculante, busca establecer los principios que deben regir el sistema de IA, para proteger los derechos de las personas frente al mismo. Actualmente se recaban comentarios públicos, especie de consulta para adoptar posibles medidas de regulación y responsabilidad para la IA como el Chat GPT.
La Comisión Europea, presentó en abril de 2021 un paquete de medidas sobre IA, en el que se encuentra uno relacionado a IA, que contiene propuesta de regulación sobre la materia en la Unión Europea, lo mencionado fue con la intención de precisar que no estamos ante un tema que no amerite atención y que no sea de actualidad, siendo así que en Panamá como se indaga, en nuestro código penal, no existe normas desarrolladas sobre la responsabilidad penal de la IA; empero, atendiendo por ejemplo que la acción efectuada en detrimento de una persona natural o jurídica por IA controlada, aplicada o desarrollada por un persona Jurídica, se cuenta con una incipiente a su vez norma de aplicación y atribución de responsabilidad penal a la Persona Jurídica, podría haber alguna respuesta, pero no de modo directo que se reconozca responsabilidad penal a la IA, en donde si con respecto a lo indicado de la Persona Jurídica, no se cuenta con una estructurada y debidamente desarrollada doctrina, así como norma penal, mucho menos en el ámbito de la IA.
Importante acotar que la IA de acuerdo con su empleo se considera Asistida, aquella que se usa para ayudar a los humanos en la realización de tareas, como elección de hojas vida, contratación. La Automatizada, empleada para organizaciones empresariales o negocios, la Aumentada con la que se facilita la toma de decisiones, aprendiendo de la interacción que se lleva a cabo, aquí se encuentran los buscadores o navegadores, redes sociales y la Autónoma que tiene la capacidad de procesar la información, tomar decisiones sin intervención humana, con programación de algoritmos que buscan suplir de la capacidad de discernimiento, pensar, sentimientos e interacción individual o propia, en esta última encontramos los vehículos autónomos, drones, robots, entre otros. Implica que la IA a la que la responsabilidad penal debe aplicarse, es aquella que actúa de modo particular o modo autónomo y toma decisiones que pueden ocasionar daño de cualquier naturaleza a una persona, ya que, al tratarse de las otras formas de IA al causarse alguna situación de afectación de derechos, generalmente es producto del accionar directo de otra persona que controla el medio empleado de la IA.
mayo 23, 2024 @ 8:07 pm
comenzare por aportar una definición de IA de Rouse, Margareth, computerwekly.es y dice lo siguiente: la inteligencia artificial es una simulación de procesos de inteligencia humana por parte de maquinas, especialmente sistemas informáticos. estos proceso incluyen el aprendizaje (la adquisición de información y reglas para el uso de la información). las aplicaciones particulares de la IA incluyen sistemas expertos, reconocimiento de voz y visión artificial. hoy día se aplica en la medicina, en los negocios, en las fabricas, en las finanzas, etc.
respecto a la culpabilidad, sin duda debemos referirnos al dolo o culpa en la conducta del acusado para que se constituya de una infracción penal y pueda ser sancionada, el reproche a una persona por violentar una conducta prohibida, pudiendo haber elegido no hacerlo, a ese injusto se le reprocha por su conducta, ademas si dicha conducta es típica, antijurídica y culpable, entra en acción el Derecho punitivo del Estado, para mantener el control social, por tanto humanos. como puede el Estado sancionar conductas de maquinas, si históricamente a sancionado a seres humanos, aquí el gran problema que en un futuro muy cercano el Derecho penal debe abordar para tomar las acciones necesarias de control, no tengo la menor duda que así será.
quisiera ejemplificar algunos temas al respecto de situaciones que pueden ocurrir con el usos de herramientas de IA, si un auto con total autonomía de manejo, un Tesla, tiene software de manejo autónomo a través de sensores que le indican a un software central la velocidad, cuando frenar y toma medias preventivas para evitar accidentes, hasta ahi todo bien, sin embargo que ocurriría si por alguna razón falla el software y se impacta con objeto fijo y ocasiona la muerte del conductor, el agente de Transito como levantara su informe, y el juez de Transito y la Fiscalia, como acreditaran la conducta si fue producto del fallo en el software, ¿quien es el que cometió el hecho punible? ¿a quién se le debe aplicar la sanción punitiva?. en mi opinión al desarrollador del software, pero si este tipo de hechos no esta en la ley que hará el juez penal, aplicar la analogía, si es sabido que el Derecho penal es para control de humanos, no de maquinas, es pues interesante como se adaptara el Derecho penal a estas realidades sociales no escritas aun en ámbitos de la aplicación de sanciones penales, tarea pues que muy pronto todos debemos resolver.
mayo 24, 2024 @ 4:16 pm
Desde mi punto de vista, la inteligencia artificial no puede tener ni derechos ni obligaciones ya que no tiene como hacer uso efectivo de esos derechos y no puede cumplir con obligaciones legales. Pero, sus creadores/administradores/usuarios, sí. Desde el momento en que una persona adquiere un vehículo Tesla, por ejemplo, su propietario será el responsable por lo que suceda con ese vehículo, tal como pasaría con el propietario de cualquier otro; si el Tesla provoca un accidente de tránsito, como ha pasado en otras latitudes, el propietario deberá responder civil y penalmente, de aplicar, por las consecuencias de dicho accidente. Ese ejemplo se hace extensivo a los propietarios de drones que causen algún daño a la propiedad o personas o los hospitales que usen robots para operaciones; si el robot falla en el medio de una operación, el hospital que adquirió dicho robot debe responder ante los familiares.
La inteligencia artificial es autónoma ya que está creada para serlo, pero hasta donde llegan mis conocimientos, entrará en acción al recibir un comando de una persona, no por sí sola. Así, quien dé el comando, debe ser quien sea el sujeto de las consecuencias legales que se originen a raíz de la IA.
Ciertamente que ésta puede ser muy beneficiosa, hace más accesible la obtención de ciertos conocimientos, puede ejecutar tareas de forma precisa y quizás mucho mejor que cualquier humano, su racionamiento no está sesgado por opiniones o experiencias personales y muchas otras. Herramientas como Alexa resultan útiles en muchos aspectos; el gran problema (en mi opinión) radica en las personas que están detrás de estas herramientas. Por poner un ejemplo sencillo, se habla de casos donde una persona accede a un sistema de cámaras de seguridad de un lugar X, violando la intimidad de ese lugar, pero no es el sistema en sí, el sistema solo responde a un comando que da una persona y esa es la que debe considerarse la responsable desde todo punto de vista legal.
mayo 24, 2024 @ 6:35 pm
La inteligencia artificial ha surgido como consecuencia de los avances tecnológicos y como bien indica la Doctora Julia Sáenz en su artículo tiene un impacto en el ser humano que aun no se ha podido establecer su alcance a nivel individual y social.
Ahora bien, frente a la pregunta si la inteligencia artificial puede generar responsabilidad penal, corresponde aclarar en primera instancia cómo se ha definido y a quien corresponde la mencionada responsabilidad y bajo que circunstancias. En este sentido, siempre se ha considerado que para que exista una conducta delictiva primero debe estar tipificada en la norma y segundo debe haber intención (dolo) o culpa (negligencia), siendo que el delito se realiza al evaluar el caudal probatorio que determine a qué se debió el actuar de ese individuo, configurándose agravantes o atenuantes conforme a los hechos, para tales efectos hasta antes de la inteligencia artificial, el único ser viviente que tiene manifestación de voluntad es el ser humano. Ahora bien, al surgir la inteligencia artificial, el mismo nombre señala que se trata de una inteligencia creada, entendiendo por inteligencia la capacidad de entender o comprender, en otras palabras, incluye la capacidad de resolver problemas, planear, pensar de manera abstracta, comprender ideas complejas, aprender de la experiencia. No se identifica con conocimientos específicos ni con habilidades específicas, sino que se trata de habilidad cognitiva general, de la cual forman parte las capacidades específicas; y por artificial, que no ha sido hecho por la naturaleza, sino por el ser humano u otro ser inteligente.
Siendo que la inteligencia artificial es un campo de la informática que se enfoca en crear sistemas que puedan realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el razonamiento y la percepción, correspondería analizar si la responsabilidad penal recaería en la persona natural que la crea con base a un estudio que permita definir a qué se debe el hecho que constituye un daño que pueda entenderse como una conducta delictual.
Surge la interrogante, quién es la persona realmente responsable por la comisión del delito de homicidio culposo, por ejemplo: los robots trans humanos a quien se le ha reconocido derechos humanos; la persona que diseñó el software y lo instaló; o quien le da mantenimiento a la máquina.
Siguiendo los principios generales de Derecho Penal, el propietario de un robot o sistema dotado de inteligencia artificial no podría incurrir en responsabilidad penal, salvo que haya conocido y quiera la acción delictiva, para lo cual se requiere establecer una serie de parámetros que permitan sostener esta posición; como ocurre con las personas jurídicas, que hoy, se ha establecido en el derecho la posibilidad de que sean responsables penalmente indicando que quienes ejercen la representación de las mismas también tendría un grado de responsabilidad.
No se puede negar que el uso de sistemas de inteligencia artificial puede vulnerar derechos como la igualdad, la privacidad, el debido proceso y la libertad de expresión. En ese escenario, el derecho necesita responder a los nuevos retos que se plantean y ofrecer respuestas jurídicas vanguardistas.
Los grandes riesgos de la inteligencia artificial para la humanidad y para las empresas es casualmente la responsabilidad dudosa, información falsa, amenaza para la ciberseguridad, desmotivación de los trabajadores y generadora de inestabilidad, que se traducen en pérdidas de puestos de trabajo que atentan contra la dignidad humana.
mayo 24, 2024 @ 6:53 pm
La Inteligencia Artificial (IA), como la herramienta tecnológica más reciente e impactante, es capaz de aprender y decidir. Actualmente, existe la posibilidad de que la IA cometa delitos, especialmente del tipo informático o ciberdelitos. Esto la coloca en una posición donde podría sumarse a los sujetos activos del delito y dejar de ser simplemente una herramienta más.
Dado este contexto, se ha planteado la necesidad de analizar y ponderar la responsabilidad penal de la Inteligencia Artificial. Sin embargo, debido a la ausencia de precedentes regulatorios nacionales, esta cuestión se convierte en una próxima y urgente frontera jurídica que debe ser regulada.
La inteligencia artificial plantea desafíos legales y éticos, y su regulación es crucial para garantizar un uso responsable y seguro de esta tecnología emergente. Es un tema que requiere una atención cuidadosa y una discusión amplia en el ámbito legal y académico.
Actualmente según mi criterio, no puede ser considerada directamente responsable desde un punto de vista penal. Las leyes penales están diseñadas para aplicarse a personas físicas y, en algunos casos, a personas jurídicas (como empresas), pero no a máquinas o algoritmos. Esto se debe a que la responsabilidad penal requiere la capacidad de intención y acción. Es por ello por lo que, la responsabilidad penal relacionada con la IA puede recaer en los desarrolladores, operadores o propietarios de la IA. Si una IA comete un acto ilícito, se podría investigar si hubo negligencia o mala praxis por parte de las personas que diseñaron, programaron, entrenaron o supervisaron la IA.
mayo 24, 2024 @ 7:35 pm
El tema del Artículo de opinión es ¨La Inteligencia Artificial y la Culpabilidad¨, refiriéndose obviamente a la responsabilidad penal que pudiera recaer sobre una ¨inteligencia Artificial¨.
En este sentido, este es un tema que me parece altamente interesante pero debo aclarar que no lo voy a abordar solamente desde el ámbito Penal, sino de forma más olística y en el concepto de responsabilidad más amplia que pudiese tener en su desempeño diario una ¨inteligencia artificial¨, es decir Penal, civil, administrativa entre otras.
Lo primero que es importante ampliar, es el concepto de inteligencia artificial que por alguna razón -pienso yo un poco peliculezca- asociamos con artefactos metálicos o de otros materiales, con forma ¨humanoide¨ -robot-, o de alguna especie de maquinaria grande o pequeña que realice algún tipo de trabajo mecánico especializado o común en reemplazo de seres humanos reales, como se pudo observar en su momento en las películas ´Yo Robot¨, ¨Terminator¨ entre otras. Esto de robot o máquina con forma humanoide, efectivamente puede parecer lo medular en cuanto a el concepto de inteligencia artificial, o al menos una variedad prominente de inteligencia artificial; pero en realidad lo es?, en lo personal consideramos que no, o al menos no es la única ni la más relevante ya que en el fondo aquellas máquinas programadas, no son más que el medio a través del cual la verdadera inteligencia artificial se manifiesta o materializa el trabajo para el cual fue diseñada o al menos parte de éste.
La verdadera inteligencia artificial no es en sí un artefacto, maquina, humanoide metálico, robot o instrumento que realiza un trabajo determinado; la verdadera inteligencia artificial es un algoritmo inteligente y autónomo programado en el universo virtual intangible ante los sentidos del ser humano; es decir la inteligencia artificial de una forma simplemente resumida y definida, no es más que una serie de comandos y programaciones en sistemas virtuales que tienen la particularidad de, no solamente seguir algunas instrucciones básicas programadas por su diseñador humano, para realizar un trabajo determinado (como hace algunas décadas eran los primeros denominados ¨Software¨ y luego las llamadas ¨aplicaciones¨); sino que pueden al enfrentarse a problemas o cambios de realidades físicas o virtuales de su entorno, tomar sus propias decisiones y ¨autoreprogramarse¨ o cambiar sus propias programaciones para ajustarse a las realidades a las cuales se enfrentan. este sólo hecho de poder ir ¨evolucionando¨ más haya de su programación inicial es lo que básicamente los diferencia de sus ¨programas¨ predecesores y es lo que los hace ser una ¨inteligencia artificial¨ es decir son un paso más haya en la evolución.
Dicho lo anterior lo cierto es que esto es ya una realidad actual, que ha dejado a la ciencia del Derecho años luz atrás, ya que incluso en la actualidad, cuando el Derecho trata de entrar a regular esta materia (tarde, diría yo que décadas tarde¡) jurídicamente hablando aun creemos que la regulación jurídica debe dirigirse a penalizar o encontrar responsabilidad civil o de otra naturaleza en el artefacto que como ser humano, nuestros sentidos básicos entienden como la ¨inteligencia artificial¨, porque es la que observamos; cuando en realidad si ha de existir una responsabilidad o culpabilidad de cualquier tipo, debemos entender que la misma recae en el sistema que controla aquel humanoide y no en el humanoide o artefacto en sí.
Para ejemplificar nuestro planteamiento anterior, sería algo así como analizar un accidente de tránsito en donde un ser humano manejando un vehículo automotor, atropella por accidente a otro ser humano y este muere. en este caso si bien es cierto el que causo directamente la muerte del ser humano atropellado fue el automóvil en sí, porque fue quien lo golpeó, le paso por encima, lo engancho a sus fierros y lo arrastro por varios metros hasta dejarlo sin vida, por ejemplo, la realidad es que al momento de que el derecho deba encontrar al culpable penalmente, pues la culpa recaerá sobre la inteligencia natural (el ser humano que piloteaba el auto) y no sobre el auto per sé.
Expuesto lo anterior a nuestra manera de ver las cosas, desde el punto de vista jurídico, las inteligencias artificiales entran dentro de lo que nosotros entendemos en la actualidad y sobre lo cual hemos estado filosofando y escribiendo un poco, y que denominamos desde una óptica propia ¨Bienes Virtuales¨ y ¨Personas Virtuales¨. Obviamente estos términos son un análisis propio de hacia adonde debe girar el derecho sobre la base de nuestra realidad evolutiva sistémica actual; es decir a nuestro criterio, hace ya varios años existen en el mundo actual (y es algo que traspasa fronteras porque así como por ejemplo la rama del derecho denominada Derecho Ambiental debe ser visto, regulado y normado desde el concierto de las naciones porque la contaminación y los daños ambientales no conocen fronteras); haciendo el paralelismo este tema que yo denomino como un nuevo derecho, ¨EL DERECHO VIRTUAL¨, también tiene que ser regulado desde el concierto de las naciones en un momento dado ya que las inteligencias artificiales a las cuales yo denomino en algunos casos ¨Bienes Virtuales¨ y en otros casos ¨personas Virtuales¨ no conocen de fronteras y pueden estar en cualquier parte del mundo, en cualquier momento, o en todas partes al mismo tiempo (si seguimos con las ejemplificaciones peliculezcas sería algo más similar a ¨La Era de Ultrón¨, o a ¨Matrix¨).
Para mí por ejemplo una criptomoneda, un correo electrónico, un almacenamiento en la nube, o una cuenta de cualquier red social, es en realidad un bien virtual ya que obviamente tiene todas las características de lo que en derecho conocemos como ¨un Bien¨, pero no es un bien mueble, ni un bien inmueble ni un bien semoviente, ni siquiera tienen las características de bien mueble intangible como la que décadas atrás se le dio a todo lo que regula ¨El Derecho de la Propiedad Industrial¨; un ¨Bitcoin¨ por ejemplo nace, se mantiene y tiene valor incluso para intercambio en compras, pagos y demás, en la virtualidad, siempre en la virtualidad no necesita ser materializado en ningún momento, es un nuevo tipo de Bien, es un ¨Bien Virtual¨.
Por otro lado una inteligencia Artificial, cualesquiera que sea su modalidad, a nuestro criterio es en realidad ¨Una persona Virtual¨ en el fondo, porque obviamente esta tomando decisiones, actuando, pensando y así como resuelve problemas, también puede causarlos y por ende puede ser objeto de tener también todo tipo de responsabilidades jurídicas no sólo penales, sino civiles, administrativas entre otras. Hace ya más de cien años este debate se tuvo en el mundo con respecto a ¨las personas jurídicas¨ con respecto a la separación de las responsabilidades que tenían las personas jurídicas en sí y la que tenían las personas naturales que integraban de alguna manera dichas personas jurídicas; este aspecto ha evolucionado hasta nuestros días es decir más de 100 años se necesitaron no sólo para entender ¨la Ficción jurídica¨ dentro de la ciencia del derecho de la existencia (que hoy nadie niega aunque todos sabemos que eso es una ficción) de las personas jurídicas y poco a poco, desde aquellos tiempo hasta fechas mucho más recientes, las personas jurídicas (algo ficticio en realidad) tienen ya no sólo responsabilidad civil, fiscal, administrativa si no que ahora hasta responsabilidad penal.
¿Creen ustedes haciendo un análisis objetivo, profundo y sesudo, que una persona jurídica es más real que lo que ahora yo le llamo una Persona virtual?; entendiendo que le llamo persona virtual a lo que en el argot popular hoy en día denominan ¨inteligencia artificial¨, cuando una persona jurídica realmente no puede hacer absolutamente nada sin que el que realmente lo hace sea una persona natural, pero una persona virtual (inteligencia artificial) puede hacer de todo incluso pensar y tomar decisiones?
A la pregunta hecha por la Profesora Julia, respondo convencido y para concluir que Sí, las inteligencias artificiales si tiene culpa y por ende responsabilidad Penal al igual que civil, fiscal, administrativa entre otras, pero la tienen porque a mi manera de entender nos encontramos frente a algo nuevo para nosotros, algo que el derecho debe entrar a regular rápidamente a nivel mundial, algo que yo denomino: ¨Personas y Bienes Virtuales¨.
Profesor
Luis Barría
mayo 24, 2024 @ 10:04 pm
La inteligencia artificial trae de manera inevitable muchas interrogantes que aún no están completamente despejadas en materia jurídica, toda vez que el cambio tecnológico ha sido veloz en los últimos años, inducido principalmente por la pandemia y la necesidad de aprovechar las herramientas tecnológicas para efectos laborales y educativos principalmente.
A priori la inteligencia artificial no tiene vida propia para razonar y tomar decisiones que lo conviertan en una persona natural o jurídica con deberes y obligaciones. Partiendo de lo anterior las responsabilidades deben ser exclusivas de sus creadores, programadores y encargados humanos.
Con la inteligencia artificial descontrolada y no regulada directamente podemos pasar de lo sublime a lo ridículo dónde la humanidad pierde su componente natural -los humanos-, por tanto al regular la materia se deben tener estas consideraciones para delimitar hasta donde la inteligencia artificial ayuda a la humanidad con las responsabilidades penales en asuntos como el planteado en el ejemplo por la Doctora Sáez.
Sin duda que es un tema en desarrollo y construcción que debemos ir evaluando con mucha cautela.
mayo 24, 2024 @ 11:40 pm
Respetada Doctora Sáenz y compañeros.
La interrogante en torno a si la inteligencia artificial puede generar responsabilidad penal, nos lleva inicialmente a analizar los dos (2) elementos que componen el cuestionamiento, que son: inteligencia artificial y responsabilidad penal.
En cuanto al concepto de inteligencia artificial, nos encontramos que como lo indican las palabras que lo componen, se trata de una máquina que posee un tipo de inteligencia “no humana”, pero capaz de emular procesos propios de la inteligencia humana, y de analizar información proporcionada por el hombre; y en base a ella, realizar determinadas acciones de forma relativamente autónoma, logrando los objetivos previstos por el hombre.
Por su parte, encontramos en términos básicos, que la responsabilidad penal es el deber de asumir las consecuencias por la comisión de un delito; entendiéndose como delito, una conducta típica, antijurídica y culpable prevista en la ley penal.
Es claro que un ente artificial NO es imputable, pues no tiene capacidad o conciencia en torno a la licitud o ilicitud de sus actos.
Dicho lo anterior, y sabiendo que la culpabilidad está integrada por la capacidad de ser imputable y el conocimiento de que la conducta es antijurídica, concluimos que de la comisión de un ilícito perpetrado a través de inteligencia artificial, NO puede generar responsabilidad penal directa respecto al ente “artificial” que despliega conductas inteligentes, producto de una programación, llegando con esto a cometer un delito.
Empero, distinto a ello, estimamos que para aquellas personas que de forma dolosa programan al ente artificial para la comisión de un delito, SI derivaría una responsabilidad penal; lo mismo que si la programación fuera deficiente, inadecuada, negligente, vacía, y que con ello mediando culpa, se cometiera un delito, por ejemplo, homicidio culposo.
Como conclusión, somos del criterio que dependerá de cada caso y sus aristas, los que podrían llevar a la determinación en torno a la responsabilidad o no del programador, pero en ningún caso para el ente artificial, pues este último desde ninguna perspectiva podría asumir las consecuencias jurídicas previstas en el Código Penal, derivadas de la responsabilidad penal.
ILKA HERRERA
CIP. 3-702-228
mayo 25, 2024 @ 1:28 am
Más allá de tener presente que hasta el momento se habla de cuatro (4) tipos de IA, a saber: IA asistida, IA automatizada, IA aumentada y, IA autónoma, todas de las cuales resulta fácil deducir su concepto y hasta rol en la vida de los seres humanos y, en general, vivos; sí considero que la IA puede generar Responsabilidad Penal, pero no para ella como tal, sino para determinadas personas, ello, conforme a lo que a renglón seguido anotaré.
Y es que vale no olvidar que la IA es el resultado de la conformación de una conjunción de elementos, antecedentes y del estudio de comportamiento de conductas del ser humano o en general de los seres vivos, que se desarrollan y luego, servidos de la tecnología, se integran a los denominados equipos computacionales que son empleados para teledirigir o hasta operar directamente maquinarias, vehículos, naves, robots, satélites y demás, a través de la conformación de múltiples algoritmos, todos creados por el ser humano, particularmente, aquellos especialista en creación de programas o software, incluso en programación, propiamente. De allí que aun cuando la IA pudiere generar tal responsabilidad, señalar prima facie a uno de estos especialistas como responsable penalmente de una conducta considerada delictiva, llevada a cabo, en este caso, por un robot o por algún otro medio tecnológico contenido en una computadora, dirigente de las acciones y demás de un equipo o máquina, resultaría un criterio o consideración subjetiva que al ser confrontada con la intención de cualquiera de aquellos, podría escorar en temeraria y hasta infundada, dado que, seguramente su creador, siendo un ser humano, llevó a cabo su creación con una finalidad positiva, pero que ello se podría ver afectado por temas de mala intención de terceros, desprogración o desconfiguración, incluso por la alteración de su finalidad evidenciada en el programa que dio su origen, lo cual podría quedar inalcanzable, siendo que resultaría bastante difícil, por no decir imposible, determinar quién o quiénes hubieren sido el (los) ser(es) humano(s) que pudiere(n) haber incidido en la distorsión de la finalidad del bien (robot o maquinaria servida de la IA), todo lo cual, apenas podría llevar a la desconexión, o mínimamente, al reseteo de aquel, no así, llevarle a la cárcel y privarle de la libertad, como se haría con un ser humano delincuente.
Es más, queda claro que la IA surge como una herramienta tecnológica para facilitar la vida de los seres humanos en sus múltiples facetas, incluso para darle mejor posibilidad de vida a otras especies de seres vivos en la tierra, todo ello, siempre que sea empleada adecuadamente, es decir, para el fin positivo que se ha creado. De allí que vale decir que esto es como quien fabrica un cuchillo, mismo cuya finalidad parte con una intención positiva. No obstante, si quien lo compra o un tercero le da un uso diferente, es decir, que, en vez de utilizarse para partir vegetales en la cocina de un restaurante, se utiliza para causarle una herida o hasta la muerte a un ser vivo (humano), además de incurrir en un delito tipificado en la ley, estaríamos desvirtuando la razón de ser de aquel objeto, pero por lo cual, no cabría lugar a responsabilizar a su creador o fabricante.
Así entonces, más allá de concluir que la IA sí puede generar responsabilidad penal, lo cierto es que hasta ahora no se ha podido establecer una pena, derivada de un hecho punitivo para una computadora, robots, etc., propiamente, servido o no de la IA, salvo en los casos en que se hubiere podido determinar o identificar al ser humano que hubiere incidido en la configuración de aquella, caso en el cual, sería a él a quién le correspondería o corresponderá enfrentar o cumplir con la pena resultante de su conducta, a la postre, penal. De allí que, hasta lo atinente a los denominados derechos de quinta y sexta generación, resultan ser un tema de escaza definición, dado que, los mismos hasta ahora ostentan una posición abstracta, siendo que su existencia y razón de ser son el resultado de la creación de determinados seres humanos (creadores de software y programadores informáticos), es decir, con capacidades especiales forjadas con estudios y aparejadas de habilidades, no así, como la creación de los seres humanos, misma que es el resultado de la unión de cromosomas y demás, de hombres y mujeres que, por conjugados da como resultado su creación, no importando hoy si es a través de la unión o relación sexual entre el uno y el otro, sino bastando el procedimiento científico de fecundación, misma que, si bien, puede ser asistida por la IA, no se compara con el surgimiento de esta última.
mayo 25, 2024 @ 7:13 am
El desarrollo, avance e implementación de la IA para la utilización en el diario vivir implica una necesaria interacción en tiempo real entre las personas humanas, robots y los trans humanos; sin embargo, estos dos últimos constituyen una invención desarrollada necesariamente por el primero. La funcionabilidad, operatividad y todo su desempeño de éstas será previamente establecido por un programador o desarrollador que para los efectos podría considerarse el «padre» de éstas. Es decir que, el desarrollador dispuso previamente los elementos o puntos de conexión que la IA debe relacionar para entonces dar una respuesta a la interrogante planteada, no es un pensamiento autónomo sino basado en los llamados «algoritmos» y, es que, el ser humano su actuar en la mayoría de los casos se basa en la costumbre; sin embargo, no puede obviarse la espontaneidad con la que reaccionamos antes una situación inesperada o inédita, precisamente eso es lo que nos diferencia de una IA.
Es en esa medida una IA, actuará luego de analizar nuestra data, de allí que, puede en base a probabilidades coincidir nuestro actuar. Pero la forma en que una IA interactuará ante una situación determinada será establecida por un ser humano en esa línea lo corresponderá determinar si se llega a generar una posible comisión de un delito es si la IA actuó de acuerdo a los programas aplicados o si éste de alguna forma fue alterado deliberadamente posiblemente con la inserción de un «virus» a su sistema operativo lo cual pudo generar esta comisión de un delito, lo cual nos dirigirá hacia una persona humana que en base a esa paternidad considero que podría llegar a ser responsable penalmente.
mayo 25, 2024 @ 7:35 am
Saludos cordiales estimados participantes. Luego de la lectura del artículo en cuestión y de los comentarios vertidos en este foro, mis aportes son los siguientes:
En definitiva, cuándo nos referimos a la culpabilidad o responsabilidad penal en materia de IA, tendría que considerar previamente, el dolo en la acción u omisión (tipo penal, previamente y debidamente descrito) además del sujeto que lo realiza.
Ante estos elementos, la realidad es que como bien sea ha dicho en la actualidad no están regulados ni el tipo penal ni la consideración del sujeto per se, llámese robots, llámese transhumano, llámese software.
Lo que considero, es que el daño doloso injustamente causado por el medio o mecanismo utilizado está regulado en nuestra legislación penal, y en ese sentido, responderá quien sea responsable de la creación o aplicación de la IA en una situación concreta.
Darle categoría de persona autónoma con plena capacidad jurídica es peligroso desde mi punto de vista. Bien decíamos que no todas las personas son humanas, aludiendo al reconocimiento de las personas naturales y jurídicas, pero considerar a la IA ya no por ficción jurídica, si no por capacidad de plena de autonomía para conducirse sobre lo bueno y lo malo, lo justo e injusto es sobrevalorar su funcionalidad y anular la responsabilidad de programador, creador o quien lo aplique. Al final a estos niveles el registro implicará el nombre de la persona responsable previamente, al igual que el uso de vehículos autónomos o naves martitimas.
mayo 25, 2024 @ 7:54 am
El desarrollo y avance tecnológico ha realizado que se transforme la sociedad en que vivimos, haciendo que interactuemos, trabajemos con nuevas herramientas tecnológicas que han hecho que surjan nuevas conductas, nuevos actores nuevas víctimas, que han hecho el surgimiento de los “ciberdelitos”.
En este proceso de desarrollo y avance tecnológico ha surgido la Inteligencia Artificial (IA), como disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.
Es por ello, que nuestro país ha procurado adaptarse, a tal punto, que fue aprobada el Convenio de Budapest como Ley de la República mediante la Ley 79 del 22 de octubre 2013, que es un tratado internacional creado en el año 2001 e impulsado por el Consejo de Europa, con el objetivo de incrementar la cooperación internacional y generar marcos legales armónicos entre las naciones con el objetivo de hacer frente a los delitos informáticos y a la actividad criminal en internet.
Este Budapest crea unas de figuras delictivas que sirven a los Estados para adecuar estas a su realidad social particular, como los Delitos contra la confidencialidad, la integridad y la disponibilidad de los datos y sistemas informáticos, sobre Delitos Informáticos, sobre Delitos relacionados con el contenido, sobre Delitos relacionados con infracciones de la propiedad intelectual y de los derechos afines.
En este sentido, posterior a lo planteado, soy del criterio que estas herramientas tecnológicas existen y se siguen desarrollando para el uso cotidiano, para mejorar la calidad de vida, la productividad y el desarrollo de nuevas tendencias en la modernidad. Sin embargo, pueden ser utilizadas para cometer “ciberdelitos” y es por ello, que soy del criterio que la Inteligencia artificial puede generar responsabilidad a quien lo utilice en el desarrollo de una conducta que se encuentra tipificada en nuestro código penal, como los delitos Informáticos son aquellos que se cometen a través del uso de las Tecnología de la Información para su cometido. Tal es el caso, como los delitos de extorsión, estafa, suplantación de identidad, robo de datos personales, entre otras y que son perseguidas e investigadas por el Ministerio Público.
mayo 25, 2024 @ 9:33 am
La inteligencia artificial es la consecuencia de una etapa del desarrollo histórico de la humanidad; tal como lo fue la revolución industrial o el iluminismo; es una etapa necesaria en el camino del progreso tecnológico.
múltiples disciplinas se plantean el marco de nuevos parámetros respecto a la convivencia social, las relaciones humanas tienen un cambio y un nuevo reto. La bioética, la filosofía, la metafísica, la ontología son ejemplos de un reordenamiento para analizar el papel de la inteligencia artificial.
El derecho y el derecho penal en especial no escapa de este abrupto cambio, el concepto tradicional del DOLO es a mi juicio el elemento diferenciador en esta disciplina legal y es que a partir de este elemento, podemos anclar las bases de la responsabilidad sin embargo, debemos tener claridad sobre aspectos determinados por ejemplo:
La Inteligencia Artificial no es un sujeto de derecho y no tiene personalidad jurídica en este momento, la responsabilidad penal por las infracciones cometidas utilizándola se imputaría a las personas físicas que utilizaran esta tecnología, o bien a aquellas que la programan para delinquir.
Considero que según el ejemplo planteado, la responsabilidad se limitará dependiendo el estudio técnico sobre lo que ocasionó el hecho penal; si la causa fue la mala programación o si lo fue la falta de mantenimiento o bien la impericia de quien realiza la cirugía.
lo que es necesario y genera un apuro fundamental, es ir adecuando nuestra legislación en dicha vía; hacer los desarrollos jurídicos y los campos técnicos sobre la nueva realidad a fin de que se aporte una base de acuerdo a las nuevas tendencias, entendiendo que la delincuencia siempre está a la vanguardia.
otras legislaciones lo han estado haciendo por ejemplo «la Resolución de 16 de febrero de 2017 del Parlamento de la UE, sobre las normas de derecho civil de la robótica, indica en el párrafo 59 f, que se reconocerá la llamada «e-personalidad» o «personalidad electrónica» de tales robots y les imputará una responsabilidad o culpabilidad propia. Y el Convenio de Budapest sobre Ciberdelincuencia establece que los Estados firmantes adoptarán las medidas legislativas o de otro tipo que se estimen necesarias para permitir que las personas jurídicas puedan ser tenidas por responsables de las infracciones establecidas en el presente Convenio, cuando estas sean cometidas por una persona física, actuando ya sea a título individual, ya sea como miembro de un órgano de la persona jurídica.»
mayo 25, 2024 @ 9:56 pm
La I.A. supone el análisis, tratamiento y procesamiento de datos o información similar o «superior» a la inteligencia humana, ello a pesar de que no se ha terminado de conocer y explicar completamente esta última y sus enigmas. En efecto, la IA supone la capacidad de ejecutar instrucciones y también ostenta un grado de autonomía que puede ser más o menos mayor.
En cuanto a la I.A. en el ámbito del Derecho Penal, por un lado, esta es utilizada en el área policial para para combatir el crimen, ayudar identificar a los criminales, también se usa para prevenir delitos. Por ejemplo, la utilización de I.A. para ubicar a posibles agresores sexuales, simulando con I.A. a una menor para identificar a las personas que intenten entablar comunicación con esta para sus fines reprochables e ilícitos. Por otro lado, así como se usa contra la delincuencia, esta última emplea a la I.A. para cometer ilícitos e incluso para promoverlos. En este sentido, y siguiendo con el caso de los delitos sexuales perpetrados contra menores, en la deep web se utiliza también inteligencia artificial simulando menores de edad y se ofrece el acceso a esta IA por un precio que es pagado por algunas personas para interactuar y simular conductas ilícitas. Estimamos que si bien, no se trata de personas naturales, sino de IA esto incentiva a delinquir.
La IA puede utilizarse para cometer actos de terrorismo a través de armas autónomas (piénsese en los drones «suicidas» y drones de combate dotados de IA); estafas a través de la simulación de la identidad o la voz de una persona; entre otros delitos. En cuanto a la responsabilidad penal, la cuestión no genera tanto debate si se trata de IA con menor grado de autonomía, en que se pudiera decir que cumple con la función de un instrumento para cometer el delito; sin embargo, cuando se trata de IA autónomas, el panorama no resulta tan claro. Algunos propugnan por otorgarles un tratamiento similar al de las personas jurídicas que delinquen, otros niegan que pueda achacarse responsabilidad penal a estos sistemas autónomos, ya que al no ser personas naturales, no tiene conocimiento de la antijuridicidad de sus acciones, ni nociones éticas o morales, no tienen conciencia del bien o mal. No son capaces de actuar con dolo, en el sentido de querer el resultado del hecho punible.
Un caso interesante para mencionar sería en del la I.A Deep Mind de Gloogle, que fue puesta a competir con otra IA recogiendo manzanas con su propio ingenio, de lo que resultó que Deep Mind utilizó rayos laser para eliminar a su oponente y apropiarse de las frutas que su oponente recogió, todo ello sin la ayuda del ser humano. Lo cual supone un grave peligro para las personas, si en ese ejemplo la competencia se hubiera dado con un humano.
Por otro lado, supongamos que se le declare responsable a una IA, es disparatado pensar en aplicarle una pena de prisión o buscar la «resocialización» de la misma, etc. Con lo cual, preliminarmente consideramos que al no estar dotadas de personalidad no puede imputársele a una IA «autónoma» responsabilidad penal, más allá de la que quepa aplicar a quienes la utilicen como un medio para delinquir en los casos de IA con menor grado de autonomía.
Lo que es un hecho es que esta problemática debe ser contemplada en la legislación de manera que pueda darse respuestas a las implicancias que plantea.
Para más información sobre el particular recomendamos escucha a Ana Rodríguez Tamayo (Experta en el Impacto de las Nuevas Tecnologías en la Ley) en el siguiente enlace:
https://www.youtube.com/live/xB4tnJLCkCg?si=y9Y3QiVZGt37a6nT