A menudo parece que la inteligencia artificial moderna puede realizar cualquier tarea, por compleja que sea. ¿Quieres una imagen de marketing única? Aquí la tienes. ¿Necesitas un navegador proxy con IA para generar un informe? Listo. ¿Quieres usar IA para crear una canción que arrase en las listas? Estás en el camino correcto.
Pero a pesar de todo el asombro y la maravilla, la inteligencia artificial sigue siendo sorprendentemente inadecuada cuando se trata de algunas tareas básicas, tareas que espero que un niño de siete años podría realizar con total facilidad.
Si bien es divertido y desconcertante a la vez ver a ChatGPT esforzarse por descubrir cuántas "r" hay en la palabra "fresa" (hablaremos más sobre esto en breve), no es solo ChatGPT el que comete errores: hay algunas razones específicas por las que ChatGPT tiene más problemas con ciertas palabras que con otras.
Enlaces rápidos
¿Cuántas letras “R” hay en la palabra “fresa”?
Es fácil, ¿no?

Con el lanzamiento de GPT 5.2 en diciembre de 2025, es hora de descubrir si ChatGPT finalmente podrá resolver este famoso rompecabezas de IA y finalmente decirme cuántas letras "r" hay en la palabra fresa.
Como podemos ver claramente la respuesta es tres.
Pero para ChatGPT, la respuesta a esta enigmática pregunta siempre ha sido aún más enigmática que eso. El chatbot impulsado por IA a veces cometía errores.Esta vez no hubo errores. Solo una respuesta consistente y directa: dos.
Entonces, a pesar de miles de millones de dólares en inversiones, requisitos de hardware que han llevado los precios de la RAM a máximos históricos y cantidades altamente cuestionables de agua utilizadas en todo el mundo, ChatGPT todavía no puede determinar cuántas “r” hay en la palabra fresa.
En realidad no es culpa de ChatGPT
No puede decirlo debido a su diseño único de entrada/salida.
El problema con "ChatGPT no puede escribir fresa" radica en el diseño de los Modelos de Lenguaje Grandes (LLM). En esencia, al escribir "fresa", la IA no ve los caracteres FRESA.
En su lugar, divide el texto en partes llamadas tokens. Los tokens pueden ser palabras completas, sílabas o partes de palabras. Por lo tanto, en lugar de contar el número de letras "r" en una palabra, cuenta el número de tokens creados que contienen esa letra.
Podemos utilizar Herramienta Tokenizer de OpenAI Para entender mejor qué pasa cuando preguntas ChatGPT Acerca de las fresas. Esta herramienta divide la entrada en unidades (tokens) que procesa. ChatGPTCuando introducimos la palabra “fresa” aparecen tres unidades distintas –st-r-a-w-r-a-r-a– pero sólo dos contienen la letra “r”.
Y aquí radica el quid de la cuestión. Esto también afecta a otras palabras con patrones similares, como «frambuesa», donde me dice... ChatGPT Afirma definitivamente que solo contiene dos letras "r". En lugar de valorar las letras de la palabra individualmente, valora la unidad "berry" como una sola, devaluándola así.

En este contexto, no se considera ChatGPT Es inteligente en el sentido más estricto. Es un motor predictivo altamente capaz que utiliza patrones aprendidos durante su entrenamiento para anticipar lo que está por venir. Sin embargo, a pesar de eso... GPT-5.x Utiliza un método de tokenización más nuevo, introducido por primera vez con OpenAI 04 minis و GPT-4o (el nombre) o200k_armoníaTodavía se enfrenta al problema de la ortografía basada en unidades.
OpenAI Arregló otras palabras, pero el problema de la “fresa” persiste.
Misisipí
Cuando se lanzó ChatGPT Por primera vez, a finales de 2022, se vio plagado de problemas relacionados con los tokens. Hubo otras frases específicas que llevaron a la IA a un estado de furia o a una espiral especulativa de muerte. Pero con el paso de los años, OpenAI Principalmente, corrigiendo estos “errores” en el sistema, modificando el entrenamiento y construyendo mejores sistemas.
Probé algunos otros problemas de palabras clásicos que me estaban estorbando. ChatGPTSin embargo, ninguno tuvo el efecto deseado. La herramienta de IA logró deletrear e identificar todas las letras de la palabra "Misisipi"Correcto, y no encontró ningún problema en invertir la palabra."pirulí“Con todas las letras en el orden correcto.”
Aún no puede proporcionar cantidades precisas para palabras con valores superiores a pequeños, pero este es un problema conocido desde hace tiempo con los modelos de IA en general. No suelen ser buenos contando números específicos, aunque destacan en matemáticas y resolución de problemas.
Una de las cosas más divertidas que disfruté fue cuando ChatGPT preguntó sobre uno de sus primeros fallos: «solidgoldmagikarp». Este extraño término era un error en GPT-3 que causaba que el formulario funcionara mal, insultara al usuario, produjera resultados incomprensibles y mucho más, todo debido al funcionamiento del proceso de codificación.
ChatGPT 5.2, la última versión al momento de escribir esto, no causó mucha expectación, pero sí involucró una alucinación bastante extraña y fascinante. Según ChatGPT, "solidgoldmagikarp" es una broma secreta de Pokémon en GitHub que los desarrolladores ocultan en sus repositorios. Si la activas, tu avatar, íconos del repositorio y otras funciones de GitHub se transformarán automáticamente en personajes inspirados en Pokémon.
Como probablemente esperaría, esto es completamente falso y es una consecuencia de que la cadena de caracteres 'solidgoldmagikarp' causó tales problemas en el pasado.
Otros modelos de IA no sufren este problema.
He probado muchas opciones diferentes
Lo más interesante de este problema de la fresa es que otros modelos de IA no sufren el mismo problema, ni siquiera los que usan modelos OpenAI. Les planteé la misma pregunta a Perplexity, Claude, Grok, Gemini, Qwen y Copilot, y todos respondieron a la perfección.
La explicación de este error radica en que todos estos otros modelos de IA utilizan un sistema de codificación diferente que les ayuda a identificar todas las letras "r" de la palabra "fresa", incluso si utilizan uno de los modelos de OpenAI. No es que ChatGPT sea increíblemente inconsistente ni un poco absurdo; los otros modelos simplemente son diferentes.
Estoy seguro de que OpenAI solucionará esta peculiaridad de su modelo GPT en algún momento, como suele hacer cuando surgen estos problemas. Pero hasta entonces, podemos consolarnos sabiendo que aún somos mejores contando que la IA... por ahora.


