Los fanáticos de la tecnología esperaban con ansias este día: el lanzamiento del nuevo modelo de OpenAI, Chat GPT 5, que promete ser una evolución en la tecnología de Inteligencia Artificial. Ahora que por fin está en manos de los consumidores, las reseñas son mixtas. Muchas personas están encantadas con la tecnología, mientras que otras solo tienen críticas y a otros le ha causado problemas de salud.
¿Quién ofrece el modelo Chat GPT 5 (en teoría)?
- De acuerdo con la publicidad y el mercadeo de OpenAI, este es su modelo más nuevo y poderoso hasta la fecha.
- Chat GPT 5 ofrece cuatro mejoras principales sobre otros modelos, en particular en el desarrollo de código, la expresividad, las recomendaciones de salud (hablaremos de esto en detalle más adelante) y la mejora en la confirmación de datos.
- Sobre todo, busca que sus respuestas sean seguras para los usuarios, evitando sugerir cosas peligrosas.

¿Chat GPT 5 cumplió con las promesas del mercadeo?
Como ocurre con todo, los resultados son mixtos. Hay personas que han tenido muy buenas experiencias y otras, muy malas. De manera general, el sentimiento en las redes sociales no es bueno, pero analicemos primero a quienes están a favor. Los usuarios que han tenido una buena experiencia han compartido una gran cantidad de gráficas que muestran un aumento en los niveles de razonamiento y una disminución en las alucinaciones.
GPT 5 keeps failing on responses to long text formats, especially code… 4 failures in 9 minutes for me now. pic.twitter.com/44ixCPZeeH
— Carl (@HanssonCC) August 8, 2025
Sin embargo, aquí surge el primer problema: las gráficas que OpenAI compartió son, simplemente, incorrectas. No en el sentido de que sean engañosas, sino que los números y su relación no corresponden. En un ejemplo, se puede ver cómo 50 es un número menor a 47. Este fue solo un caso del evento oficial donde se presentó el modelo al mundo. OpenAI más tarde publicó las mismas gráficas en su sitio web, pero corregidas, presuntamente por un humano.
Someone was chilling while creating the graphs for GPT-5 pic.twitter.com/yZ8676r6Fd
— Shivang (@whyshivang) August 7, 2025
If GPT-5 made this graph it’s far from over fam. pic.twitter.com/h03tgQ05qR
— Einar Vollset 🇳🇴🇺🇸 (@einarvollset) August 7, 2025
Estos mismos errores y problemas han acompañado al modelo en la experiencia de los usuarios, ya que varios han realizado evaluaciones en las que Chat GPT 5 falla en tareas básicas. Incluso hay usuarios que lo colocan por debajo de los modelos previos, lo cual es un problema ya que esos modelos ahora son inaccesibles.
Además de todo esto, los usuarios están experimentando fallos de alta latencia y problemas en los que la Inteligencia Artificial tarda grandes cantidades de tiempo para dar una respuesta. Pero este no es el único problema que trajo esta tecnología.
GPT-5 they promised vs GPT-5 they delivered. pic.twitter.com/kGRYz9R59U
— AshutoshShrivastava (@ai_for_success) August 8, 2025
Traducción: ¿Lo que Chat GPT 5 prometió vs lo que Chat GPT 5 es?
¿Se puede usar Chat GPT 5 para temas de salud?
Uno de los grandes puntos de mercadeo de Chat GPT 5 es cómo la Inteligencia Artificial puede ayudar en tareas relacionadas con la salud. En DosPuntos, no podemos recomendar que hagas esto, pues hay muchos casos en los que dejar tu salud a la Inteligencia Artificial ha tenido consecuencias letales. El caso más reciente tiene que ver con un hombre de 60 años en Estados Unidos, que le preguntó a Chat GPT cómo dejar de usar sal (cloruro de sodio) en su dieta.
Durante 3 meses, siguiendo las recomendaciones de Chat GPT, consumió bromuro de sodio y recientemente llegó a la sala de emergencias con una psicosis severa, causada por un exceso extremo de bromo en su sistema. Esta es una condición grave que es mucho menos común hoy en día, gracias a la eliminación del bromo de la dieta y de sus usos en la medicina.
Sure.
— Abhinav Agarwal (@AbhinavAgarwal) August 8, 2025
Man uses ChatGPT to replace his salt with sodium bromide.
Three months later, he man shows up at his local emergency room. His neighbor, he said, was trying to poison him. https://t.co/mZWy3WCK2W pic.twitter.com/eBypFttQcB
En lo que respecta a la salud mental, esto podría volverse ilegal dentro de poco, ya que el estado de Illinois, en Estados Unidos, ha creado una nueva ley que prohíbe el uso de la Inteligencia Artificial para dar terapia y respuestas sobre salud mental, con multas de hasta 10,000 dólares para las empresas responsables.
La Inteligencia Artificial es una gran herramienta, pero es importante recordar en cada momento que no es perfecta y que siempre debes consultar con un experto en temas de salud antes de tomar una decisión. La Inteligencia Artificial la debes usar con mucho criterio para evitar este tipo de errores.
Illinois becomes the first U.S. state to ban AI therapy. pic.twitter.com/5lex11PQeR
— Pop Crave (@PopCrave) August 7, 2025
¿Es este el final para Chat GPT 5?
No, al final de cuentas, incluso si el sentimiento es malo en las redes sociales, OpenAI tiene una base de consumidores fuerte. Por eso, ahora se están centrando en resolver los problemas con el modelo actual. Al final de cuentas, los modelos los pueden mejorar y actualizar con el tiempo.
Pero, esto sigue siendo un problema para OpenAI, pues la carrera de la Inteligencia Artificial se vuelve cada día más feroz. Además, a pesar de que esto pueda parecer un tropiezo terrible, no es nada comparado con Grok y sus comentarios en X, antes Twitter, que han causado mucha más controversia.