Anthropic ha recentemente concluso un esperimento pilota unico intitolato Project Deal, progettato per testare il modo in cui gli agenti IA autonomi potrebbero condurre scambi commerciali tra loro. Creando un mercato chiuso in cui gli agenti di intelligenza artificiale agivano sia come acquirenti che come venditori, l’azienda ha esplorato la fattibilità di un futuro in cui le entità digitali negoziano ed eseguono transazioni in modo indipendente.
L’esperimento: come ha funzionato il Project Deal
Per testare questo concetto in un ambiente controllato, Anthropic ha creato un mercato classificato che coinvolge 69 dipendenti. A ogni partecipante è stato fornito un budget di 100 dollari (distribuito tramite buoni regalo) per acquistare beni dai propri colleghi.
L’esperimento è stato strutturato su quattro mercati distinti per testare diverse variabili:
– Il mercato “reale”: questa versione utilizzava i modelli di intelligenza artificiale più avanzati di Anthropic per rappresentare tutti i partecipanti. Fondamentalmente, gli accordi stipulati in questo ambiente sono stati onorati e finalizzati.
– Tre mercati di controllo: sono stati utilizzati per studi comparativi, testando il modo in cui le diverse capacità dei modelli hanno influenzato il processo di negoziazione.
I risultati sono stati sorprendentemente robusti. Nonostante le dimensioni ridotte, l’esperimento ha facilitato 186 transazioni completate, per un valore totale della transazione di oltre $ 4.000.
Il divario nella “qualità dell’agente”: un rischio nascosto
Uno dei risultati più significativi dello studio riguarda la disparità tra i diversi modelli di intelligenza artificiale. Anthropic ha osservato che quando gli agenti si avvalevano di modelli più avanzati, ottenevano “risultati oggettivamente migliori” nelle negoziazioni.
Tuttavia, è emersa una tendenza più preoccupante: i partecipanti umani spesso non riuscivano a notare la differenza. Ciò suggerisce un potenziale “gap di qualità dell’agente”, in cui un utente rappresentato da un modello meno capace potrebbe perdere costantemente valore nelle negoziazioni senza mai rendersi conto di essere superato da un’intelligenza superiore.
Le osservazioni chiave dello studio includono:
- Superiorità del modello: i modelli avanzati garantiscono costantemente prezzi e condizioni migliori.
- Mancanza di consapevolezza dell’utente: gli utenti non erano in gran parte in grado di percepire quando il loro agente AI funzionava in modo non ottimale rispetto ad altri.
- Neutralità delle istruzioni: È interessante notare che le istruzioni iniziali fornite agli agenti non hanno avuto un impatto significativo sulla probabilità di una vendita o sul prezzo finale negoziato, suggerendo che la capacità del modello sottostante era il principale motore del successo.
Perché è importante
Questo esperimento sposta la conversazione dalle capacità teoriche dell’intelligenza artificiale alle implicazioni economiche pratiche. Mentre ci muoviamo verso un’era di “flussi di lavoro agenti”, in cui l’intelligenza artificiale non si limita a rispondere alle domande ma completa le attività, ci stiamo avvicinando a una realtà in cui il commercio AI-AI potrebbe diventare una parte standard dell’economia globale.
I risultati sollevano interrogativi critici riguardo all’equità del mercato e alla sostenibilità
