
Demandantes acusan a OpenAI, creadora de ChatGPT, de ofrecer un producto “defectuoso” que supuestamente habría dado consejos al presunto autor de un tiroteo en Florida sobre cómo causar el mayor daño posible. También cuestionan que la empresa no alertara a las autoridades canadienses pese a identificar como riesgoso al responsable de otro ataque. El caso reabre el debate sobre los límites de la inteligencia artificial y la responsabilidad de plataformas a las que a menudo se atribuyen capacidades humanas. ¿Puede un sistema como ChatGPT tener algún grado de responsabilidad en hechos violentos?
Thank you for reading this post, don't forget to subscribe!About The Author
"Tu apoyo hace posible nuestro periodismo independiente"
Colaborá con ESCUCHALOACA.COM.AR para seguir informando con total libertad y objetividad.
CONTRIBUIR AHORA





