Spesso sembra che l'intelligenza artificiale moderna possa svolgere qualsiasi compito, indipendentemente dalla sua complessità. Vuoi un'immagine di marketing unica? Eccola qui. Hai bisogno di un browser proxy basato sull'intelligenza artificiale per compilare un report? Fatto. Vuoi usare l'intelligenza artificiale per creare una canzone da classifica? Sei sulla strada giusta.
Ma nonostante tutto lo stupore e la meraviglia, l'intelligenza artificiale rimane sorprendentemente inadeguata quando si tratta di svolgere alcuni compiti basilari, compiti che mi aspetto che un bambino di sette anni possa svolgere con assoluta facilità.
Sebbene sia allo stesso tempo divertente e sconcertante vedere ChatGPT faticare a capire quante "r" ci sono nella parola "fragola" (ne parleremo più avanti), non è solo ChatGPT a commettere errori: ci sono alcuni motivi specifici per cui ChatGPT ha più problemi con certe parole rispetto ad altre.
Link veloci
Quante lettere "R" ci sono nella parola "fragola"?
È facile, non è vero?

Con l'uscita di GPT 5.2 nel dicembre 2025, sarà il momento di scoprire se ChatGPT riuscirà finalmente a risolvere questo famoso enigma dell'intelligenza artificiale e a dirmi finalmente quante lettere "r" ci sono nella parola fragola.
Come possiamo vedere chiaramente, la risposta è tre.
Ma per ChatGPT, la risposta a questa domanda enigmatica è sempre stata ancora più enigmatica di così A volte il chatbot basato sull'intelligenza artificiale commetteva degli errori.Questa volta non ci sono stati errori. Solo una risposta coerente e diretta: due.
Quindi, nonostante miliardi di dollari di investimenti, requisiti hardware che hanno portato i prezzi della RAM a livelli record e quantità di acqua altamente discutibili utilizzate in tutto il mondo, ChatGPT non è ancora in grado di determinare quante "r" ci sono nella parola fragola.
In realtà non è colpa di ChatGPT
Non può dirlo a causa del suo design unico di input/output.
Il problema con "ChatGPT non riesce a scrivere fragola" risiede nella progettazione dei Large Language Model (LLM). In sostanza, quando digiti "fragola", l'IA non vede i caratteri FRAGOLA.
Invece, divide il testo in parti chiamate token. I token possono essere parole intere, sillabe o parti di parole. Pertanto, invece di contare il numero di lettere "r" in una parola, conta effettivamente il numero di token creati che contengono quella lettera.
Possiamo usare Strumento Tokenizer di OpenAI Per capire meglio cosa succede quando chiedi ChatGPT A proposito di fragole. Questo strumento divide i tuoi input in unità (token) che elabora. ChatGPTQuando digitiamo la parola “fragola”, compaiono tre unità distinte – st-raw-berry – ma solo due contengono la lettera “r”.
Ed è qui che sta il nocciolo del problema. Questo riguarda anche altre parole con schemi simili, come "lampone", dove mi dice ChatGPT Afferma definitivamente di contenere solo due lettere "r". Invece di valutare le lettere della parola individualmente, valuta l'unità "berry" come un'unità singola, svalutandola così.

In questo contesto non si considera ChatGPT È intelligente nel senso più vero del termine. È un motore predittivo altamente capace che utilizza modelli appresi durante l'addestramento per anticipare ciò che accadrà. Tuttavia, nonostante ciò, GPT-5.x Utilizza un metodo di tokenizzazione più recente, introdotto per la prima volta con OpenAI 04 mini و GPT-4o (il nome) o200k_armoniaDeve ancora affrontare il problema dell'ortografia basata sulle unità.
OpenAI Ha corretto altre parole, ma il problema della "fragola" persiste.
Mississippi
Quando è stato lanciato ChatGPT Per la prima volta, alla fine del 2022, si è verificato un problema legato ai token. C'erano altre frasi specifiche che hanno spinto l'IA in uno stato di rabbia o in una spirale di morte speculativa. Ma nel corso degli anni, OpenAI Principalmente correggendo questi “errori” nel sistema, modificando la formazione e costruendo sistemi migliori.
Ho provato altri classici problemi di parole che mi intralciavano ChatGPTTuttavia, nessuno di questi ha avuto l'effetto desiderato. Lo strumento di intelligenza artificiale è stato in grado di scrivere e identificare tutte le lettere della parola "Mississippi"Correttamente, e non ha avuto alcun problema a invertire la parola."lecca-lecca"Con tutte le lettere nell'ordine corretto."
Non è ancora in grado di fornire quantità accurate per parole più grandi di valori piccoli, ma questo è un problema noto da tempo con i modelli di intelligenza artificiale in generale. In genere, non sono bravi a contare numeri specifici, sebbene eccellano in matematica e nella risoluzione di problemi.
Una delle cose divertenti che mi è piaciuta di più è stata la richiesta di ChatGPT di uno dei suoi primi crash: "solidgoldmagikarp". Questo strano termine era un bug di GPT-3 che causava il malfunzionamento del modulo, offendeva l'utente, produceva output incomprensibili e molto altro, tutto a causa del funzionamento del codice.
ChatGPT 5.2, l'ultima versione al momento in cui scrivo, non ha esattamente fatto scalpore, ma si è addentrato in un'allucinazione piuttosto bizzarra e affascinante. Secondo ChatGPT, "solidgoldmagikarp" è uno scherzo segreto sui Pokémon su GitHub che gli sviluppatori nascondono nei loro repository. Se in qualche modo lo attivi, il tuo avatar, le icone dei repository e altre funzionalità di GitHub si trasformeranno automaticamente in personaggi ispirati ai Pokémon.
Come probabilmente ti aspetteresti, questo è completamente falso ed è una conseguenza del fatto che la stringa di caratteri 'solidgoldmagikarp' ha causato simili problemi in passato.
Altri modelli di intelligenza artificiale non soffrono di questo problema.
Ho provato molte opzioni diverse
La cosa più interessante di questo problema della fragola è che altri modelli di intelligenza artificiale non soffrono dello stesso problema... nemmeno quelli che utilizzano modelli OpenAI. Ho posto la stessa domanda a Perplexity, Claude, Grok, Gemini, Qwen e Copilot, e tutti hanno risposto perfettamente.
La spiegazione di questo errore risiede nel fatto che tutti questi altri modelli di intelligenza artificiale utilizzano un sistema di codifica diverso che li aiuta a identificare tutte le lettere "r" nella parola "fragola", anche se utilizzano uno dei modelli OpenAI. Non è che ChatGPT sia incredibilmente incoerente o un po' sciocco; gli altri modelli sono semplicemente diversi.
Sono sicuro che OpenAI risolverà questa stranezza nel suo modello GPT a un certo punto, come di solito fa quando si presentano problemi di questo tipo. Ma fino ad allora, possiamo consolarci con il fatto che siamo ancora più bravi dell'intelligenza artificiale a contare... per ora.


