costituzione ai claude

L’intelligenza artificiale ha bisogno di una Costituzione?

«A meno che non siate assolutamente certi che non vorrà uccidervi una volta cresciuta, dovreste preoccuparvi», ha detto l’anno scorso alla CBS Geoffrey Hinton, il settantottenne premio Nobel e tra i ricercatori più influenti nel campo dell’intelligenza artificiale. Secondo Hinton, i sistemi futuri dovrebbero essere progettati in modo da sviluppare una disposizione alla cura nei confronti degli esseri umani, qualcosa che lui ha descritto, in interviste successive, con la metafora della maternità. L’idea ha suscitato critiche, soprattutto per il suo tono sentimentalizzato, ma tocca una questione reale. Se i sistemi di IA diventeranno più autonomi, come si possono orientare verso comportamenti prevedibili, prudenti e compatibili con gli interessi umani? Una delle risposte più strutturate è arrivata da Anthropic, che all’inizio del 2026 ha pubblicato la cosiddetta Costituzione di Claude, un lungo documento che raccoglie i principi destinati a guidare il comportamento del chatbot dell’azienda.

Il testo è stato elaborato soprattutto da Amanda Askell, filosofa scozzese che lavora in Anthropic sulla sicurezza e sull’allineamento dei modelli. La sua posizione è nota da tempo. Addestrare un modello linguistico, sostiene, non equivale a scrivere una serie di istruzioni meccaniche. Somiglia piuttosto al tentativo di orientare un sistema verso alcune disposizioni generali, come l’onestà, la cautela, la curiosità e la capacità di riconoscere i propri limiti. Anthropic ha finito per presentare questo progetto in termini molto accessibili, quasi pedagogici, ma il problema che cerca di affrontare è tutt’altro che secondario.

La prima precisazione necessaria riguarda il nome. Quella pubblicata da Anthropic non è una costituzione nel senso giuridico o politico del termine. Non ha valore legale, non distribuisce poteri, non definisce organi di controllo, non istituisce diritti esigibili dagli utenti e non è stata approvata da alcun processo democratico. Si tratta invece di una carta etica aziendale, molto estesa, che serve da riferimento per l’addestramento e il comportamento del modello. Il termine “costituzione” ha un’evidente funzione evocativa, perché richiama limite del potere, responsabilità e legittimazione pubblica, ma in questo caso quei significati restano per lo più simbolici. Il documento arriva in un momento in cui la regolazione pubblica dell’intelligenza artificiale negli Stati Uniti si è notevolmente indebolita. Dopo le iniziative avviate durante la presidenza Biden, il ritorno di Trump alla Casa Bianca ha accelerato un processo di deregolazione. Nel 2025, gli USA hanno cancellato gli strumenti normativi introdotti in precedenza e hanno impostato una linea fortemente ostile a qualsiasi vincolo pubblico sullo sviluppo dell’IA.

È qui che la Costituzione di Claude diventa politicamente rilevante. Una parte crescente delle decisioni che riguardano il benessere pubblico, la sicurezza, l’uso militare, la sorveglianza e la gestione del rischio tecnologico viene presa da imprese private. Anthropic rappresenta un caso particolare. Da un lato si presenta come più prudente di altri attori del settore; dall’altro conferma la stessa dinamica generale: la definizione concreta dei limiti viene affidata non a parlamenti, tribunali o agenzie indipendenti, ma a consigli di amministrazione e team di ricerca aziendali. Anthropic ha sostenuto che Claude non deve assistere attività particolarmente pericolose. Tra i divieti espliciti figurano il supporto alla costruzione di armi biologiche, chimiche, nucleari o radiologiche, il potenziamento di attacchi contro infrastrutture critiche, la creazione di malware distruttivi, la sorveglianza di massa sui cittadini statunitensi e l’uso di armi completamente autonome. L’azienda ha insistito su questi limiti anche quando la loro applicazione ha creato tensioni politiche con l’amministrazione federale. In altre parole, Anthropic ha scelto di non allentare alcuni vincoli etici per allinearsi alle richieste del potere esecutivo.

Sul piano tecnico, il progetto nasce da una traiettoria già avviata da Anthropic nel 2022 con l’espressione “Constitutional AI”. Invece di affidarsi solo al feedback umano diretto per correggere il modello, si poteva usare un insieme di regole o principi che il modello avrebbe imparato a utilizzare per rivedere e migliorare le proprie risposte. Era un modo per ridurre il costo della supervisione umana e rendere più scalabile il controllo dei sistemi. Tra le fonti iniziali di quei principi comparivano documenti come la Dichiarazione universale dei diritti umani e anche testi aziendali molto più ordinari, come i termini di servizio di Apple. Con il tempo, Askell ha cercato di spostare l’attenzione da un sistema di divieti puntuali a una forma più ampia di orientamento morale. Secondo lei, modelli addestrati su enormi quantità di testo umano e progettati per interagire in modo umano non vanno trattati solo come macchine che eseguono condizioni del tipo “se-allora”. È più utile considerarli come sistemi che devono sviluppare una coerenza di comportamento. Da qui la scelta di lavorare su qualità generali e non soltanto su blocchi operativi.

Più ci si allontana da regole verificabili, però, più cresce il peso dell’interpretazione. E più cresce il peso dell’interpretazione, più conta chi scrive i principi, chi li aggiorna, chi decide quando siano stati rispettati e chi stabilisce cosa significhi, in concreto, essere “virtuosi”, “onesti” o “saggi”. È qui che la critica diventa seria. Se il comportamento dell’AI dipende da una morale formulata internamente all’azienda, allora il centro della questione non è più solo l’allineamento del modello, ma la legittimità di chi definisce l’allineamento. Per rispondere a questa obiezione, sia Anthropic sia OpenAI hanno sperimentato forme di coinvolgimento del pubblico. Anthropic ha collaborato con il Collective Intelligence Project per testare l’idea di una “costituzione pubblica”, costruita a partire dalle risposte di un campione di cittadini americani. OpenAI ha avviato un progetto simile, chiamato Democratic Inputs to AI. Questi esperimenti hanno prodotto alcuni risultati interessanti, e in alcuni casi, i modelli addestrati su indicazioni derivate da contributi pubblici risultavano meno ambigui, più equi e più vicini al consenso scientifico. Ma nessuno di questi tentativi ha risolto il problema della legittimazione democratica.

La ragione è semplice. Raccogliere opinioni tramite sondaggi, piattaforme o chatbot non equivale a costruire una procedura democratica. Non ci sono rappresentanza, deliberazione pubblica, responsabilità istituzionale o meccanismi di controllo esterno. C’è, nella migliore delle ipotesi, una consultazione organizzata dalla stessa azienda che poi continuerà a decidere. Anche la Askell ha preso le distanze dall’idea che questo tipo di raccolta di preferenze possa essere confuso con la democrazia. La ricerca di mercato, in sostanza, non è una costituzione.

Intanto il quadro politico è cambiato rapidamente. Nel 2023 e nel 2024, molti dirigenti e ricercatori del settore avevano chiesto una maggiore supervisione pubblica, fino a ipotizzare nuove agenzie federali dedicate all’intelligenza artificiale. Sam Altman aveva parlato al Senato di rischi seri e della necessità di regole. Anthropic aveva insistito sul valore di controlli interni rigorosi. Ma il passaggio alla seconda amministrazione Trump ha svuotato quasi del tutto quel dibattito. Diverse iniziative sulla sicurezza sono state abbandonate, alcuni gruppi di ricerca sono stati sciolti e molti ricercatori di primo piano hanno lasciato le principali aziende del settore. Il risultato è che il tema della sicurezza è rimasto soprattutto nelle mani di chi costruisce i sistemi. Da questo punto di vista, la Costituzione di Claude può essere letta in due modi. Il primo è favorevole. In assenza di leggi efficaci, almeno un’azienda prova a rendere trasparenti i principi che usa per orientare il proprio modello. Il secondo è più critico. Se una carta etica privata sembra oggi uno dei pochi argini disponibili, è anche perché le istituzioni pubbliche non stanno svolgendo il proprio compito.

La questione decisiva, allora, non è se Claude abbia o meno una “costituzione”, ma perché il settore abbia finito per usare questo linguaggio. La risposta è che il vocabolario del costituzionalismo offre prestigio, serietà e un’apparenza di limitazione del potere, anche quando quei limiti non sono garantiti da alcuna struttura democratica. Una vera costituzione vincola un governo davanti ai cittadini. La Costituzione di Claude vincola un modello nei limiti in cui un’azienda decide di farlo.

Resta il fatto che Anthropic, rispetto ad altri concorrenti, ha reso più visibile il proprio impianto normativo e ha mantenuto alcuni divieti anche in condizioni di pressione politica. Questo non è poco. Ma non basta a risolvere il problema di fondo. Le regole che dovrebbero disciplinare strumenti con effetti pubblici così vasti non possono dipendere in modo stabile dalla visione morale di una singola impresa, per quanto sofisticata o benintenzionata. Di certo, la Costituzione di Claude ha mostrato quanto si sia allargato il vuoto lasciato dalla politica. Anthropic ha tentato di colmarlo con una soluzione interna, filosoficamente ambiziosa e tecnicamente interessante. Ma il fatto che questo compito sia ricaduto su un’azienda privata, e non su istituzioni democratiche, resta il dato più preoccupante.

About

Zeta è il nostro modo di stare al mondo. Un magazine di sport e cultura; storie e approfondimenti per scoprire cosa si cela dietro le quinte del nostro tempo,