La promessa di opportunità dell'intelligenza artificiale maschera la realtà dello spostamento gestito

Vuoi ricevere informazioni più intelligenti nella tua casella di posta? Iscriviti alle nostre newsletter settimanali per ricevere solo ciò che conta per i leader aziendali in materia di intelligenza artificiale, dati e sicurezza. Iscriviti ora
La migrazione cognitiva è in corso. La stazione è affollata. Alcuni sono saliti a bordo, mentre altri esitano, incerti se la destinazione giustifichi la partenza.
Christopher Stanton, esperto del futuro del lavoro e professore all'Università di Harvard, ha recentemente commentato che l'adozione dell'IA è stata enorme e ha osservato che si tratta di una "tecnologia a diffusione straordinariamente rapida". Questa velocità di adozione e impatto è un elemento fondamentale che differenzia la rivoluzione dell'IA dalle precedenti trasformazioni guidate dalla tecnologia, come il PC e Internet. Demis Hassabis, CEO di Google DeepMind, si è spinto oltre, prevedendo che l'IA potrebbe essere "10 volte più grande della Rivoluzione Industriale e forse 10 volte più veloce".
L'intelligenza, o almeno il pensiero, è sempre più condivisa tra persone e macchine. Alcune persone hanno iniziato a utilizzare regolarmente l'intelligenza artificiale nei loro flussi di lavoro. Altri sono andati oltre, integrandola nelle loro routine cognitive e nelle loro identità creative. Questi sono i " volenterosi ", tra cui i consulenti esperti di progettazione rapida, i product manager che riorganizzano i sistemi e coloro che creano le proprie attività occupandosi di tutto, dalla codifica alla progettazione del prodotto al marketing.
Per loro, il terreno sembra nuovo ma percorribile. Emozionante, persino. Ma per molti altri, questo momento appare strano e non poco inquietante. Il rischio che corrono non è solo quello di essere lasciati indietro. È quello di non sapere come, quando e se investire nell'IA, in un futuro che sembra altamente incerto e in cui è difficile immaginare il proprio posto. Questo è il doppio rischio della preparazione all'IA , e sta rimodellando il modo in cui le persone interpretano il ritmo, le promesse e la pressione di questa transizione.
La scalabilità dell'intelligenza artificiale raggiunge i suoi limiti
Limiti di potenza, aumento dei costi dei token e ritardi nelle inferenze stanno rimodellando l'intelligenza artificiale aziendale. Partecipa al nostro esclusivo salone per scoprire come i migliori team stanno:
- Trasformare l'energia in un vantaggio strategico
- Progettazione di inferenze efficienti per reali guadagni di produttività
- Sbloccare il ROI competitivo con sistemi di intelligenza artificiale sostenibili
Assicurati il tuo posto per rimanere in vantaggio : https://bit.ly/4mwGngO
In tutti i settori, si stanno formando nuovi ruoli e team, e gli strumenti di intelligenza artificiale stanno rimodellando i flussi di lavoro più velocemente di quanto le norme o le strategie possano tenere il passo. Ma il significato è ancora vago, le strategie poco chiare. Il risultato finale, se ce n'è uno, rimane incerto. Eppure, il ritmo e la portata del cambiamento appaiono significativi. A tutti viene detto di adattarsi, ma pochi sanno esattamente cosa significhi o quanto saranno profondi i cambiamenti. Alcuni leader del settore dell'intelligenza artificiale affermano che enormi cambiamenti sono in arrivo, e presto, con macchine superintelligenti che potrebbero emergere entro pochi anni.
Ma forse questa rivoluzione dell'IA fallirà, come è già successo ad altre, con un altro " inverno dell'IA " a seguire. Ci sono stati due inverni degni di nota. Il primo è stato negli anni '70, causato dai limiti computazionali. Il secondo è iniziato alla fine degli anni '80, dopo un'ondata di aspettative disattese, con fallimenti di alto profilo e mancata realizzazione di "sistemi esperti". Questi inverni sono stati caratterizzati da un ciclo di aspettative elevate seguite da profonde delusioni, che hanno portato a significative riduzioni dei finanziamenti e dell'interesse per l'IA.
Se l'entusiasmo odierno per gli agenti di intelligenza artificiale rispecchiasse la promessa fallita dei sistemi esperti, ciò potrebbe portare a un altro inverno. Tuttavia, ci sono notevoli differenze tra allora e oggi. Oggi, l'adesione istituzionale, la trazione dei consumatori e l'infrastruttura di cloud computing sono molto maggiori rispetto ai sistemi esperti degli anni '80. Non c'è garanzia che non si verifichi un nuovo inverno, ma se il settore fallirà questa volta, non sarà per mancanza di fondi o di slancio. Sarà perché la fiducia e l'affidabilità sono state le prime a cedere.

Se "la grande migrazione cognitiva" è reale, questa rimane la prima parte del viaggio. Alcuni sono già saliti sul treno, mentre altri si attardano ancora, incerti se o quando salire. In mezzo all'incertezza, l'atmosfera in stazione si è fatta irrequieta, come quella di viaggiatori che percepiscono un cambiamento di itinerario di viaggio che nessuno ha annunciato.
La maggior parte delle persone ha un lavoro, ma si interroga sul livello di rischio a cui è esposta. Il valore del loro lavoro sta cambiando. Un'ansia silenziosa ma crescente aleggia sotto la superficie delle valutazioni delle prestazioni e dei colloqui aziendali.
L'intelligenza artificiale può già accelerare lo sviluppo software da 10 a 100 volte, generare la maggior parte del codice client-based e comprimere drasticamente le tempistiche dei progetti. I manager sono ora in grado di utilizzare l'intelligenza artificiale per creare valutazioni delle prestazioni dei dipendenti. Persino classicisti e archeologi hanno trovato valore nell'intelligenza artificiale, avendola utilizzata per comprendere antiche iscrizioni latine .
I "volenterosi" hanno un'idea di dove stanno andando e potrebbero trovare trazione. Ma per i "pressati", i "resistenti" e persino per coloro che non sono ancora entrati in contatto con l'IA, questo momento sembra qualcosa a metà tra l'attesa e il dolore. Questi gruppi hanno iniziato a comprendere che potrebbero non rimanere a lungo nella loro zona di comfort.
Per molti, non si tratta solo di strumenti o di una nuova cultura, ma se questa cultura abbia spazio per loro. Aspettare troppo a lungo è come perdere il treno e potrebbe portare a una perdita di lavoro a lungo termine. Persino coloro con cui ho parlato, che sono in una posizione avanzata nella loro carriera e hanno iniziato a utilizzare l'intelligenza artificiale, si chiedono se la loro posizione non sia minacciata.
La narrazione delle opportunità e dell'aggiornamento professionale nasconde una verità ancora più scomoda. Per molti, questa non è una migrazione. È uno spostamento gestito. Alcuni lavoratori non scelgono di rinunciare all'intelligenza artificiale. Stanno scoprendo che il futuro che si sta costruendo non li include. Credere negli strumenti è diverso dall'appartenere al sistema che gli strumenti stanno rimodellando. E senza un percorso chiaro per partecipare in modo significativo, "adattarsi o restare indietro" inizia a suonare meno come un consiglio e più come un verdetto.
Queste tensioni sono proprio il motivo per cui questo momento è importante. C'è una crescente sensazione che il lavoro, così come lo hanno sempre conosciuto, stia iniziando a regredire. I segnali arrivano dall'alto. Il CEO di Microsoft Satya Nadella lo ha riconosciuto in una nota del luglio 2025 a seguito di una riduzione del personale, osservando che la transizione all'era dell'intelligenza artificiale "potrebbe sembrare caotica a volte, ma la trasformazione lo è sempre". Ma c'è un altro aspetto di questa inquietante realtà: la tecnologia che guida questa urgente trasformazione rimane fondamentalmente inaffidabile.
Eppure, nonostante tutta l'urgenza e lo slancio, questa tecnologia sempre più pervasiva rimane di per sé difettosa, limitata, stranamente fragile e tutt'altro che affidabile. Ciò solleva un secondo livello di dubbio, non solo su come adattarsi, ma anche sulla capacità degli strumenti a cui ci stiamo adattando di funzionare. Forse queste carenze non dovrebbero sorprendere, considerando che solo pochi anni fa l'output dei grandi modelli linguistici (LLM) era a malapena coerente. Ora, tuttavia, è come avere un dottorato di ricerca in tasca; l'idea di un'intelligenza ambientale on-demand, un tempo fantascienza, è quasi diventata realtà.
Sotto la loro patina, tuttavia, i chatbot costruiti su questi LLM rimangono fallibili, smemorati e spesso troppo sicuri di sé. Hanno ancora allucinazioni, il che significa che non possiamo fidarci completamente del loro output. L'intelligenza artificiale può rispondere con sicurezza, ma non con responsabilità. Questo è probabilmente un bene, poiché le nostre conoscenze e competenze sono ancora necessarie. Inoltre, non hanno una memoria persistente e hanno difficoltà a portare avanti una conversazione da una sessione all'altra.
Possono anche perdersi. Di recente, ho avuto una sessione con un chatbot di spicco, che ha risposto a una domanda in modo del tutto incoerente. Quando gliel'ho fatto notare, ha risposto di nuovo fuori tema, come se il filo della nostra conversazione fosse semplicemente svanito.
Inoltre, non imparano, almeno non in senso umano. Una volta che un modello viene rilasciato, che sia da Google, Anthropic, OpenAI o DeepSeek , i suoi pesi vengono congelati. La sua "intelligenza" è fissa. Invece, la continuità di una conversazione con un chatbot è limitata ai confini della sua finestra di contesto, che è, a dire il vero, piuttosto ampia. All'interno di quella finestra e di quella conversazione, i chatbot possono assorbire conoscenze e creare connessioni che fungono da apprendimento immediato, e appaiono sempre più come dei sapienti.
Questi pregi e difetti si sommano a una presenza intrigante e seducente. Ma possiamo fidarci? Sondaggi come l' Edelman Trust Barometer del 2025 mostrano che la fiducia nell'IA è divisa. In Cina, il 72% delle persone esprime fiducia nell'IA. Ma negli Stati Uniti, questa percentuale scende al 32%. Questa divergenza sottolinea come la fiducia del pubblico nell'IA sia plasmata tanto dalla cultura e dalla governance quanto dalle capacità tecniche. Se l'IA non avesse allucinazioni, se potesse ricordare, se imparasse, se capissimo come funziona, probabilmente ci fideremmo di più. Ma la fiducia nel settore dell'IA in sé rimane sfuggente. C'è il timore diffuso che non ci sarà una regolamentazione significativa della tecnologia dell'IA e che la gente comune avrà poca voce in capitolo su come verrà sviluppata o implementata.
Senza fiducia, questa rivoluzione dell'intelligenza artificiale vacillerà e porterà con sé un altro inverno? E se così fosse, cosa succederà a coloro che hanno investito tempo, energie e la propria carriera? Chi ha aspettato ad abbracciare l'intelligenza artificiale ne trarrà beneficio? La migrazione cognitiva sarà un fiasco?
Alcuni noti ricercatori di intelligenza artificiale hanno avvertito che l'intelligenza artificiale nella sua forma attuale – basata principalmente sulle reti neurali di apprendimento profondo su cui si basano gli LLM – non sarà all'altezza delle proiezioni ottimistiche. Sostengono che saranno necessarie ulteriori innovazioni tecniche affinché questo approccio possa progredire ulteriormente. Altri non credono alle proiezioni ottimistiche sull'intelligenza artificiale. Lo scrittore Ewan Morrison considera il potenziale della superintelligenza come una finzione sbandierata per attrarre finanziamenti da parte degli investitori . "È una fantasia", ha affermato, "un prodotto di un capitale di rischio impazzito".
Forse lo scetticismo di Morrison è giustificato. Tuttavia, nonostante i loro difetti, gli LLM odierni stanno già dimostrando un'enorme utilità commerciale. Se il progresso esponenziale degli ultimi anni dovesse fermarsi domani, le conseguenze di ciò che è già stato creato avranno un impatto per gli anni a venire. Ma dietro questo movimento si nasconde qualcosa di più fragile: l'affidabilità degli strumenti stessi.
Per ora, i progressi esponenziali continuano, mentre le aziende sperimentano e implementano sempre più l'intelligenza artificiale. Che sia spinta dalla convinzione o dalla paura di perdersi qualcosa, il settore è determinato ad andare avanti. Tutto potrebbe crollare se arrivasse un altro inverno, soprattutto se gli agenti di intelligenza artificiale non riuscissero a fornire risultati. Tuttavia, l'ipotesi prevalente è che le attuali carenze saranno risolte attraverso una migliore ingegneria del software. E potrebbe essere così. Anzi, probabilmente lo saranno, almeno in una certa misura.
La scommessa è che la tecnologia funzionerà, che sarà scalabile e che la disruption che creerà sarà compensata dalla produttività che consentirà. Il successo in questa avventura presuppone che ciò che perdiamo in sfumature, valore e significato umani sarà compensato in portata ed efficienza. Questa è la scommessa che stiamo facendo. E poi c'è il sogno: l'intelligenza artificiale diventerà una fonte di abbondanza ampiamente condivisa, eleverà anziché escludere, ed espanderà l'accesso all'intelligenza e alle opportunità anziché concentrarlo.
L'inquietante risiede nel divario tra i due. Andiamo avanti come se accettare questa scommessa potesse garantire la realizzazione del sogno. È la speranza che l'accelerazione ci porti in un posto migliore, e la fiducia che non eroderà gli elementi umani che rendono la destinazione degna di essere raggiunta. Ma la storia ci ricorda che anche le scommesse vincenti possono lasciare indietro molti. La trasformazione "disordinata" attualmente in corso non è solo un inevitabile effetto collaterale. È il risultato diretto di una velocità che travolge la capacità umana e istituzionale di adattarsi efficacemente e con attenzione. Per ora, la migrazione cognitiva continua, tanto per fede quanto per convinzione.
La sfida non è solo costruire strumenti migliori, ma porsi domande più difficili su dove ci stanno portando. Non stiamo semplicemente migrando verso una destinazione sconosciuta; lo stiamo facendo così velocemente che la mappa cambia mentre corriamo, muovendoci attraverso un paesaggio che è ancora in fase di definizione. Ogni migrazione porta con sé speranza. Ma la speranza, se non analizzata, può essere rischiosa. È tempo di chiederci non solo dove stiamo andando, ma anche a chi apparterrà il nostro posto quando arriveremo.
Gary Grossman è vicepresidente esecutivo della divisione tecnologia di Edelman e responsabile globale dell'Edelman AI Center of Excellence.
Se vuoi fare colpo sul tuo capo, VB Daily ha la soluzione che fa per te. Ti forniamo informazioni privilegiate su ciò che le aziende stanno facendo con l'intelligenza artificiale generativa, dai cambiamenti normativi alle implementazioni pratiche, così puoi condividere approfondimenti per massimizzare il ROI.
Leggi la nostra Informativa sulla privacy
Grazie per esserti iscritto. Scopri altre newsletter di VB qui .
Si è verificato un errore.

venturebeat