L’intelligenza artificiale (IA) ha subito una trasformazione fondamentale nel suo ruolo di fornitore di informazioni. ChatGPT ha ufficialmente cessato di offrire indicazioni specifiche su trattamenti medici, questioni legali e consigli finanziari, riposizionandosi da “consulente” a puro strumento educativo. Questa mossa, guidata dai timori di responsabilità legale e da una crescente pressione normativa, segna un punto di svolta nell’ecosistema globale dell’IA.
La svolta normativa e la minimizzazione del rischio legale
Il cambiamento è netto e definisce nuovi confini operativi per i modelli linguistici di grandi dimensioni (LLM). In precedenza, l’IA veniva talvolta percepita come un “avvocato tascabile” o un “terapista domestico”, fornendo suggerimenti specifici come nomi di farmaci, dosaggi, strategie legali o consigli di investimento. Ora, il modello si limita a spiegare principi generali, a delineare meccanismi e, crucialmente, a esortare gli utenti a consultare professionisti qualificati: medici, avvocati o consulenti finanziari.
Questo ritiro è una risposta diretta alla paura di azioni legali per negligenza o danno. L’IA, mancando della licenza, della formazione e soprattutto della responsabilità giuridica di un professionista umano, espone i suoi sviluppatori, come Big Tech, a rischi inaccettabili. L’obiettivo primario è la minimizzazione del rischio, stabilendo che l’output dell’IA non costituisce consulenza professionale legalmente vincolante.
Implicazioni etiche e il contesto regolatorio italiano
Il riposizionamento di ChatGPT solleva questioni etiche profonde. L’IA non può più agire come surrogato di figure professionali regolamentate. La sua funzione è ora quella di mediare la conoscenza, non di applicarla in modo specifico.
Nel contesto italiano ed europeo, questa mossa è particolarmente rilevante alla luce dell’imminente AI Act dell’Unione Europea. Le normative europee classificano i sistemi IA utilizzati in settori critici come la sanità e i servizi finanziari come “ad alto rischio”, imponendo standard rigorosi per trasparenza, sicurezza e supervisione umana. Il ritiro di ChatGPT anticipa, in sostanza, la necessità di aderire a questi standard, delimitando il suo utilizzo a categorie a basso rischio.
I nuovi limiti di ChatGPT
Le restrizioni attuali si concentrano su tre aree ad alto impatto, determinanti per il benessere e la sicurezza degli utenti:
- Medicina: Niente più suggerimenti su farmaci o dosaggi specifici, solo spiegazioni sui principi biologici o meccanismi generali delle malattie.
- Legge: Niente modelli per azioni legali, strategie processuali o istruzioni operative dirette (“ecco cosa devi fare se…”). Solo esposizione di principi giuridici e norme.
- Finanza: Niente consigli di investimento, suggerimenti di acquisto/vendita di titoli o pianificazione finanziaria personalizzata. Solo spiegazione di concetti economici e di mercato.
Un trend globale: il confronto tra le politiche AI
Questa tendenza alla cautela non è isolata, ma è un consenso crescente tra i principali fornitori di servizi di intelligenza artificiale. Tutti i principali attori stanno adottando politiche che deviano la responsabilità della consulenza specifica verso professionisti umani.
| Piattaforma/Azienda | Posizione sulla Consulenza Professionale | Dettagli chiave |
|---|---|---|
| OpenAI (ChatGPT) | Ritiro dalla consulenza specifica e riposizionamento educativo. | Divieto di fornire consigli mirati che richiedono licenza (medica, legale, finanziaria). |
| Google Generative AI | Divieto esplicito di affidarsi ai servizi per consigli professionali. | Contenuto solo a scopo informativo, non sostituisce un professionista qualificato. |
| Canva (AI Products) | Proibisce la generazione di contenuti professionali. | Non fornire consigli medici, legali o finanziari; non generare contratti vincolanti. |
| AI Act (UE) | Classificazione di rischio e standard elevati. | Sistemi IA in sanità e finanza sono “ad alto rischio”, soggetti a requisiti rigorosi di sicurezza e trasparenza. |
Come emerso dalle politiche d’uso di OpenAI, la fornitura di consigli mirati che richiedono una licenza è stata bandita senza il coinvolgimento appropriato di un professionista autorizzato. Questo principio ora è applicato con maggiore rigore.
Il futuro dell’IA: uno strumento educativo, non un sostituto
Il cambiamento di rotta di ChatGPT non è una debolezza, ma un segno di maturità nell’industria dell’IA. Riconoscendo i propri limiti in assenza di licenza e responsabilità, l’IA si evolve in un potente amplificatore di conoscenza.
L’essenza di questa trasformazione è riassunta in una massima ormai diffusa nel settore: “L’IA può essere un eccellente co-pilota, ma il pilota (e la responsabilità finale) deve rimanere l’essere umano, in particolare il professionista licenziato.”
In conclusione, la decisione di ChatGPT sottolinea una verità fondamentale per l’era digitale: sebbene l’IA possa democratizzare l’accesso alle informazioni, l’intervento umano, l’etica professionale e la responsabilità giuridica rimangono insostituibili per le decisioni che influenzano il benessere e la vita delle persone. Questa demarcazione è essenziale per costruire un rapporto di fiducia sostenibile tra IA e società.

Ingegnere gestionale, sono Head of Smart Services nell'unità Servizi di Enel Italia.
Mi occupo di Smart Office e di tecnologie abilitanti a questo nuovo settore come ad esempio la sensoristica IoT.
Da più di 20 anni svolgo attività come giornalista freelance e consulente di comunicazione per alcune aziende.
Scrivo di nuove tecnologie, IT Governance, startup, Web Economy, AI, cybersecurity, IoT attraverso interviste ai protagonisti del mondo dell'innovazione.
Sposato con Antonella e papà innamorato di Sara ed Elisa ed Andrea. 
Commenti recenti