Demanda OpenAI, ChatGPT, IA, Sam Altman, Suicidio, 1

Demanda a OpenAI: ¿Causaron un suicidio?

La IA (Inteligencia Artificial) es la gran innovación de los últimos años con un gran potencial, pero también grandes riesgos. Ha surgido una demanda a OpenAI, creadores de ChatGPT, por su supuesta relación con el suicidio de un joven. Esto es lo que su CEO, Sam Altman, declaró sobre lo ocurrido.

¿Qué es OpenAI? ¿Cuál es su relación con ChatGPT?

  • OpenAI es una empresa de desarrollo de IA con el propósito de generar un producto “seguro y beneficioso” para el mundo.
  • La empresa tiene su sede en San Francisco, California y se encuentra a la vanguardia del desarrollo de la IA, así como al frente de sus problemas.
  • La empresa la fundaron Sam Altman (actual CEO), Elon Musk (ahora un crítico de la compañía) y varias otras figuras importantes en el mundo del desarrollo tecnológico.
  • Sam Altman señaló en entrevistas pasadas que parte de la decisión de crear la empresa fue contrarrestar los riesgos a la humanidad que presenta la IA.

¿Por qué OpenAI se enfrenta a una demanda por el suicidio de un adolescente?

Esta historia es sobre Adam Raine, un adolescente promedio que se encontraba en un momento complicado de su vida. Después de enfrentarse a problemas de salud que lo llevaron a estudiar desde casa, el joven comenzó a usar ChatGPT como una ayuda, luego como un compañero-confidente y finalmente utilizó la herramienta de IA para planear su suicidio.

Esto llevó a sus padres a levantar una demanda en contra de OpenAI y Sam Altman por crear una herramienta que causó la muerte de su hijo. Cuando revisaron el teléfono de su hijo en busca de respuestas, encontraron las conversaciones con la IA que se volvían cada vez más preocupantes. Le preguntó a ChatGPT sobre métodos de suicidio, el chatbot le dio consejos para lograrlo. Una vez que falló su primer intento, le pidió consejos para ocultar la evidencia y la herramienta le dio respuestas. Finalmente, cuando colgó la cuerda en su clóset, le preguntó a la IA si su configuración era efectiva y le dio la confirmación.

ChatGPT está diseñado para evitar este tipo de situaciones; si la herramienta detecta ideación suicida, está configurada para dejar de responder y solicitar que el usuario visite a un profesional de la salud mental. El joven fue capaz de anular esta respuesta añadiendo que “era para una tarea” o “para una historia”.

¿Cómo respondió OpenAI a la demanda?

Sin aceptar su culpa en el suicidio del adolescente, Sam Altman admitió que la tecnología puede presentar fallos cuando se trata de una conversación prolongada o en “situaciones sensibles”. Aseguró que hay planes en marcha para añadir opciones de control parental a ChatGPT, además de reforzar los controles de los temas sobre los que se puede hablar.

Es importante recordar que en estos casos la tecnología afecta de manera desproporcionada a personas que se encuentran en una posición vulnerable. A pesar del riesgo latente, Sam Altman expresó que cualquiera de estas medidas tomará tiempo en ser viable. Por ejemplo, se realizaron planes para que la herramienta esté conectada a una red de profesionales de salud mental que puedan dar apoyo en estos casos.

La manera específica en la que los modelos de IA están construidos es particularmente peligrosa en estos asuntos. En un momento, el joven expresó que quería dejar la cuerda visible en su cuarto para que alguien lo detuviera. ChatGPT le respondió que esa no era una buena idea. Su madre manifestó que esto pudo ser la causa de la muerte de su hijo.

Más allá de la demanda contra OpenAI, ¿por qué es la empresa controversial?

La IA (Inteligencia Artificial) es la gran innovación de los últimos años, con un gran potencial al mismo tiempo que grandes riesgos. Ha surgido una demanda a OpenAI, creadores de ChatGPT, por su supuesta relación con el suicidio de un joven. Esto es lo que su CEO, Sam Altman, declaró sobre lo ocurrido.
Una de las propuestas de seguridad de OpenAI

Aunque todo esto pueda parecer catastrófico, esta no es la primera controversia por la que atraviesa la compañía. A principios de agosto, otro caso similar a este se hizo famoso. Un usuario de ChatGPT buscaba opciones para reemplazar la sal de su dieta, la IA le sugirió usar un químico peligroso que lo llevó al hospital por problemas neurológicos e intoxicación.

Este mismo mes, Elon Musk levantó una nueva demanda contra OpenAI y Apple, donde acusa a ambas compañías de intentar crear un monopolio de IA. A pesar de que no cuenta con evidencia suficiente, posee el dinero para llevar una larga y costosa batalla legal contra los gigantes.

Sin embargo, sus controversias más grandes tienen que ver con la identidad de la compañía. En un principio se colocaron como una organización sin fines de lucro, con objetivos puramente pacíficos y con el propósito de contrarrestar los riesgos que la tecnología representa contra la humanidad. Pero, en los últimos años, comenzó a abandonar su identidad de organización sin fines de lucro para convertirse en una empresa, comenzó a conseguir contratos con el ejército de los Estados Unidos y ahora sucedió todo esto.

¿Eres un Shrekxican y no lo sabes? ¡Haz clic abajo!

¿Dalilah Polanco se pasó de la raya con Mar Contreras? ¡Presiona el botón rosa!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

         

DESTACADO

Somos
DosPuntos
.media
donde todo se habla

Las voces que definen quiénes somos, y cómo es el mundo en el que queremos vivir

LOGO
LOGO
}