Familias demandan OpenAI tras tiroteo Canadá

0
9

Un grupo de familias afectadas por uno de los tiroteos más graves en la historia reciente de Canadá ha presentado demandas contra la empresa de inteligencia artificial OpenAI y su director ejecutivo, Sam Altman, ante un tribunal federal en Estados Unidos.

De acuerdo con reportes publicados por Reuters y Bloomberg, las acciones legales alegan que la compañía habría tenido conocimiento previo de intenciones violentas del autor del ataque a través del uso de su herramienta ChatGPT, sin haber alertado a las autoridades.

Hechos bajo investigación

El tiroteo ocurrió en febrero de 2026 en Tumbler Ridge, en la provincia de Columbia Británica, dejando al menos nueve personas fallecidas, entre ellas varios menores de edad. Según las demandas, el atacante —un joven de 18 años— habría utilizado ChatGPT meses antes para describir escenarios de violencia armada, lo que presuntamente fue detectado por sistemas internos de la empresa.

Los demandantes sostienen que existió una omisión grave al no informar a la policía, lo que, según su argumento, pudo haber evitado la tragedia. En total, se han presentado al menos siete demandas iniciales, con la posibilidad de que se sumen más en las próximas semanas.

Respuesta de la empresa

En respuesta, OpenAI calificó los hechos como una “tragedia” y afirmó mantener una política de “tolerancia cero” frente al uso de sus herramientas para fines violentos. La empresa también aseguró haber reforzado sus sistemas de seguridad, incluyendo:

  • Mejor detección de comportamientos de riesgo
  • Respuestas más sensibles a señales emocionales
  • Mayor conexión con servicios de apoyo en salud mental
  • Evaluación más rigurosa de amenazas

Asimismo, se ha reconocido públicamente que la cuenta del atacante fue bloqueada previamente, aunque no se notificó a las autoridades en ese momento.

Debate internacional sobre inteligencia artificial

Este caso se suma a una creciente ola de litigios contra empresas tecnológicas, especialmente desarrolladoras de inteligencia artificial, por su posible responsabilidad en conductas dañinas vinculadas al uso de sus plataformas.

Expertos señalan que el proceso judicial podría sentar precedentes importantes sobre los límites de responsabilidad de las empresas tecnológicas, la privacidad de los usuarios y el deber de prevención ante posibles actos violentos.

Mientras tanto, el caso continúa en análisis en tribunales estadounidenses, en medio de un debate global cada vez más intenso sobre el impacto social, ético y legal de la inteligencia artificial.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí