Torres Assiego, Covadonga2025-01-292025-01-292023-10-20978-84-9890-460-4https://hdl.handle.net/10115/68937Uno de los puntos centrales del artículo es la suspensión de ChatGPT en Italia, que marcó un precedente en la regulación europea de la IA en relación con la protección de datos y la ética del desarrollo tecnológico. Se analiza el papel del Garante della Protezione dei Dati Personali y las exigencias regulatorias impuestas a OpenAI para garantizar el uso ético de la información. Además, el artículo propone la necesidad de un Convenio Internacional sobre el Uso Delictivo de las TIC, con el objetivo de regular el impacto de la inteligencia artificial en el derecho penal y evitar lagunas jurídicas que puedan favorecer la impunidad en delitos como el ciberterrorismo, el discurso de odio y los ataques automatizados. Desde una perspectiva ética, se plantea la aplicación del principio de precaución en la regulación de la IA, siguiendo las directrices del Libro Blanco sobre Inteligencia Artificial de la Unión Europea. Se destaca la importancia de establecer límites normativos para prevenir el uso indebido de la IA en la manipulación de datos, la generación de desinformación y la afectación de derechos fundamentales. En conclusión, el artículo enfatiza la urgencia de un marco regulador flexible y dinámico, que permita responder a la rápida evolución de la IA sin menoscabar la seguridad jurídica ni los derechos fundamentales. Asimismo, aboga por una cooperación internacional para garantizar que la inteligencia artificial sea utilizada de manera ética y responsable dentro del sistema legal global.El estudio parte de la creciente problemática en torno a la autonomía de la IA y la falta de regulación específica que permita determinar responsabilidades en caso de delitos cometidos mediante el uso de tecnologías emergentes. A través de un enfoque multidisciplinario, se examinan los principales modelos de imputación de responsabilidad penal y sus limitaciones cuando se aplican a sistemas autónomos e inteligentes. Se analizan diferentes enfoques doctrinales sobre la responsabilidad penal de las entidades no humanas, incluyendo el modelo de responsabilidad por autoría mediata, el modelo de responsabilidad por consecuencias naturales probables y el modelo de responsabilidad directa. Asimismo, el artículo aborda casos recientes en los que la IA ha sido objeto de sanciones o restricciones, destacando la suspensión temporal de ChatGPT en Italia, que marcó un precedente en la regulación europea de la IA. Se revisa el papel del Garante della Protezione dei Dati Personali en la adopción de medidas preventivas y en la exigencia de garantías éticas y jurídicas para el uso de datos personales en entornos digitales. Se argumenta la necesidad de un marco normativo internacional que regule la responsabilidad penal de los desarrolladores, empresas y operadores de sistemas de IA, a fin de evitar vacíos legales que puedan favorecer la impunidad en delitos cometidos con el apoyo de inteligencia artificial. Desde una perspectiva ética, el artículo plantea la aplicación del principio de precaución en la regulación de la IA, en consonancia con el Libro Blanco sobre Inteligencia Artificial de la Unión Europea. Se propone la creación de un Convenio Internacional sobre el Uso Delictivo de las TIC, que establezca criterios claros sobre la atribución de responsabilidad en el uso indebido de tecnologías como la IA, los algoritmos predictivos y los sistemas de vigilancia automatizados. Finalmente, la investigación enfatiza la importancia de desarrollar un marco jurídico flexible y dinámico, que permita adaptarse a la rápida evolución de la tecnología, sin menoscabar los derechos fundamentales ni la seguridad jurídica. En este sentido, se destaca la urgencia de una cooperación internacional para garantizar que la IA no se convierta en un instrumento de impunidad penal, sino en una herramienta regulada bajo criterios de transparencia, ética y responsabilidadesinteligencia artificialDerecho penaldignidad humanaderechos humanoséticaLa suspensión de chatgpt en italia como precedente europeo en la ética de las IABook chapterinfo:eu-repo/semantics/closedAccess