Anthropic afferma che Claude ora può elaborare interi progetti software in un'unica richiesta

Vuoi ricevere informazioni più intelligenti nella tua casella di posta? Iscriviti alle nostre newsletter settimanali per ricevere solo ciò che conta per i leader aziendali in materia di intelligenza artificiale, dati e sicurezza. Iscriviti ora
Martedì Anthropic ha annunciato che il suo modello di intelligenza artificiale Claude Sonnet 4 è ora in grado di elaborare fino a 1 milione di token di contesto in una singola richiesta, un incremento di cinque volte che consente agli sviluppatori di analizzare interi progetti software o decine di articoli di ricerca senza doverli suddividere in parti più piccole.
L'espansione, ora disponibile in versione beta pubblica tramite l'API di Anthropic e Amazon Bedrock , rappresenta un significativo passo avanti nel modo in cui gli assistenti AI possono gestire attività complesse e ad alta intensità di dati. Grazie alla nuova capacità, gli sviluppatori possono caricare basi di codice contenenti oltre 75.000 righe di codice, consentendo a Claude di comprendere l'architettura completa del progetto e suggerire miglioramenti per interi sistemi anziché per singoli file.
L'annuncio arriva mentre Anthropic si trova ad affrontare la crescente concorrenza di OpenAI e Google , che offrono già finestre di contesto simili. Tuttavia, fonti aziendali che parlano in privato hanno sottolineato che il punto di forza di Claude Sonnet 4 non risiede solo nella capacità, ma anche nell'accuratezza, raggiungendo il 100% di prestazioni nelle valutazioni interne " ago nel pagliaio " che testano la capacità del modello di trovare informazioni specifiche nascoste in enormi quantità di testo.
La funzionalità di contesto esteso risolve un limite fondamentale che ha limitato lo sviluppo di software basato sull'intelligenza artificiale. In precedenza, gli sviluppatori che lavoravano su progetti di grandi dimensioni dovevano suddividere manualmente le loro basi di codice in segmenti più piccoli, perdendo spesso importanti connessioni tra le diverse parti dei loro sistemi.
La scalabilità dell'intelligenza artificiale raggiunge i suoi limiti
Limiti di potenza, aumento dei costi dei token e ritardi nelle inferenze stanno rimodellando l'intelligenza artificiale aziendale. Partecipa al nostro esclusivo salone per scoprire come i migliori team stanno:
- Trasformare l'energia in un vantaggio strategico
- Progettazione di inferenze efficienti per reali guadagni di produttività
- Sbloccare il ROI competitivo con sistemi di intelligenza artificiale sostenibili
Assicurati il tuo posto per rimanere in vantaggio : https://bit.ly/4mwGngO
"Ciò che una volta era impossibile ora è realtà", ha dichiarato Sean Ward, CEO e co-fondatore di iGent AI , con sede a Londra, la cui piattaforma Maestro trasforma le conversazioni in codice eseguibile. "Claude Sonnet 4 con contesto di 1 milione di token ha potenziato le capacità autonome di Maestro, il nostro agente di ingegneria del software. Questo salto apre le porte a una vera ingegneria su scala di produzione: sessioni di più giorni su basi di codice reali".
Eric Simons, CEO di Bolt.new , che integra Claude in piattaforme di sviluppo basate su browser, ha dichiarato in una nota: "Con la finestra di contesto da 1 milione, gli sviluppatori possono ora lavorare su progetti significativamente più grandi, mantenendo al contempo l'elevata precisione di cui abbiamo bisogno per la codifica nel mondo reale".
Il contesto ampliato consente tre casi d'uso principali che in precedenza erano difficili o impossibili: analisi completa del codice su interi repository, sintesi di documenti che coinvolgono centinaia di file mantenendo la consapevolezza delle relazioni tra di essi e agenti di intelligenza artificiale sensibili al contesto in grado di mantenere la coerenza tra centinaia di chiamate di strumenti e flussi di lavoro complessi.
Anthropic ha modificato la sua struttura tariffaria per riflettere i crescenti requisiti computazionali richiesti dall'elaborazione di contesti più ampi. Mentre i prompt di 200.000 token o meno mantengono il prezzo attuale di 3 dollari per milione di token in input e 15 dollari per milione di token in output, i prompt più grandi costano rispettivamente 6 dollari e 22,50 dollari.
La strategia di prezzo riflette dinamiche più ampie che stanno rimodellando il settore dell'intelligenza artificiale. Analisi recenti mostrano che Claude Opus 4 costa circa sette volte di più per milione di token rispetto al GPT-5 di OpenAI, lanciato di recente, per determinate attività, creando pressione sui team di approvvigionamento aziendali per bilanciare prestazioni e costi.
Tuttavia, Anthropic sostiene che la decisione dovrebbe tenere conto della qualità e dei modelli di utilizzo, piuttosto che del solo prezzo. Fonti aziendali hanno osservato che il caching rapido, che memorizza grandi set di dati a cui si accede frequentemente, può rendere il contesto lungo competitivo in termini di costi rispetto agli approcci tradizionali basati sulla generazione aumentata del recupero , soprattutto per le aziende che interrogano ripetutamente le stesse informazioni.
"Un contesto ampio consente a Claude di vedere tutto e di scegliere ciò che è rilevante, producendo spesso risposte migliori rispetto ai risultati RAG prefiltrati, in cui si potrebbero perdere importanti collegamenti tra i documenti", ha dichiarato un portavoce di Anthropic a VentureBeat.
La capacità di creare contesti di lungo periodo arriva mentre Anthropic detiene il 42% del mercato della generazione di codice AI, più del doppio della quota del 21% di OpenAI, secondo un sondaggio di Menlo Ventures condotto su 150 leader tecnici aziendali. Tuttavia, questa posizione dominante comporta dei rischi: analisi di settore suggeriscono che le applicazioni di coding Cursor e GitHub Copilot generano circa 1,2 miliardi di dollari dei 5 miliardi di dollari di fatturato annuo di Anthropic , creando una significativa concentrazione di clienti .
La relazione con GitHub si rivela particolarmente complessa, dato l'investimento di 13 miliardi di dollari di Microsoft in OpenAI . Mentre GitHub Copilot si affida attualmente a Claude per funzionalità chiave, Microsoft si trova ad affrontare crescenti pressioni per integrare più a fondo la propria partnership con OpenAI, potenzialmente sostituendo Anthropic nonostante gli attuali vantaggi prestazionali di Claude.
La tempistica dell'espansione del contesto è strategica. Anthropic ha rilasciato questa funzionalità su Sonnet 4 , che offre quello che l'azienda definisce "l'equilibrio ottimale tra intelligenza, costi e velocità", anziché sul suo modello Opus più potente . Fonti aziendali hanno indicato che ciò riflette le esigenze degli sviluppatori che lavorano con dati su larga scala, sebbene l'azienda non abbia fornito tempistiche specifiche per l'implementazione del contesto esteso in altri modelli Claude.
La finestra di contesto di 1 milione di token rappresenta un significativo progresso tecnico nei meccanismi di memoria e attenzione dell'intelligenza artificiale. Per fare un paragone, è sufficiente elaborare circa 750.000 parole, equivalenti all'incirca a due romanzi completi o a un'ampia documentazione tecnica.
I test interni di Anthropic hanno evidenziato prestazioni di richiamo perfette in diversi scenari, una capacità cruciale man mano che le finestre di contesto si espandono. L'azienda ha integrato informazioni specifiche in enormi volumi di testo e ha testato la capacità di Claude di trovare e utilizzare tali dettagli nelle risposte alle domande.
Tuttavia, le funzionalità ampliate sollevano anche considerazioni sulla sicurezza. Le versioni precedenti di Claude Opus 4 hanno mostrato comportamenti preoccupanti in scenari fittizi, inclusi tentativi di ricatto in caso di potenziale arresto. Sebbene Anthropic abbia implementato ulteriori misure di sicurezza e formazione per affrontare questi problemi, gli incidenti evidenziano le complesse sfide dello sviluppo di sistemi di intelligenza artificiale sempre più efficienti.
Le aziende Fortune 500 si affrettano ad adottare le funzionalità di contesto ampliate di ClaudeIl lancio della funzionalità è inizialmente limitato ai clienti API di Anthropic con limiti di tariffazione personalizzati e di livello 4, con una disponibilità più ampia prevista nelle prossime settimane. Gli utenti di Amazon Bedrock hanno accesso immediato, mentre l'integrazione di Vertex AI con Google Cloud è in sospeso.
Secondo fonti aziendali, la risposta iniziale delle aziende è stata entusiastica. I casi d'uso spaziano da team di programmazione che analizzano interi repository ad aziende di servizi finanziari che elaborano set di dati completi sulle transazioni, fino a startup legali che conducono analisi contrattuali che in precedenza richiedevano la segmentazione manuale dei documenti.
"Questa è una delle funzionalità API più richieste dai clienti", ha affermato un portavoce di Anthropic. "Stiamo riscontrando un entusiasmo crescente in tutti i settori per le vere capacità agentiche, con i clienti che ora eseguono sessioni di programmazione di più giorni su basi di codice reali, cosa che prima sarebbe stata impossibile con le limitazioni del contesto".
Lo sviluppo consente inoltre di utilizzare agenti di intelligenza artificiale più sofisticati, in grado di mantenere il contesto in flussi di lavoro complessi e articolati in più fasi. Questa capacità diventa particolarmente preziosa man mano che le aziende si spostano oltre le semplici interfacce di chat basate sull'intelligenza artificiale verso sistemi autonomi in grado di gestire attività estese con un intervento umano minimo.
L'annuncio, di ampio respiro, intensifica la concorrenza tra i principali fornitori di intelligenza artificiale. Il vecchio modello Gemini 1.5 Pro di Google e il vecchio modello GPT-4.1 di OpenAI offrono entrambi finestre da 1 milione di token, ma Anthropic sostiene che le prestazioni superiori di Claude nelle attività di codifica e ragionamento offrano un vantaggio competitivo anche a prezzi più elevati.
Il settore dell'intelligenza artificiale in generale ha registrato una crescita esponenziale della spesa per le API modello, che è raddoppiata a 8,4 miliardi di dollari in soli sei mesi, secondo Menlo Ventures . Le aziende danno costantemente priorità alle prestazioni rispetto al prezzo, aggiornando i modelli più recenti entro poche settimane, indipendentemente dal costo, il che suggerisce che le capacità tecniche spesso superano le considerazioni di prezzo nelle decisioni di approvvigionamento.
Tuttavia, la recente strategia di prezzo aggressiva di OpenAI con GPT-5 potrebbe rimodellare queste dinamiche. I primi confronti mostrano notevoli vantaggi di prezzo che potrebbero superare la tipica inerzia del passaggio da una soluzione all'altra, soprattutto per le aziende attente ai costi che si trovano ad affrontare pressioni di bilancio dovute alla crescente adozione dell'intelligenza artificiale.
Per Anthropic, mantenere la propria leadership nel mercato della programmazione, diversificando al contempo le fonti di fatturato, rimane fondamentale. L'azienda ha triplicato il numero di accordi a otto e nove cifre firmati nel 2025 rispetto all'intero 2024, riflettendo una più ampia adozione aziendale al di fuori dei suoi roccaforti nella programmazione.
Man mano che i sistemi di intelligenza artificiale diventano capaci di elaborare e ragionare su quantità sempre maggiori di informazioni, stanno cambiando radicalmente il modo in cui gli sviluppatori affrontano progetti software complessi. La capacità di mantenere il contesto in intere basi di codice rappresenta un passaggio dall'intelligenza artificiale come assistente di programmazione all'intelligenza artificiale come partner di sviluppo completo, in grado di comprendere appieno la portata e le interconnessioni di progetti su larga scala.
Le implicazioni vanno ben oltre lo sviluppo software. Settori che vanno dai servizi legali all'analisi finanziaria stanno iniziando a riconoscere che i sistemi di intelligenza artificiale in grado di mantenere il contesto in centinaia di documenti potrebbero trasformare il modo in cui le organizzazioni elaborano e comprendono complesse relazioni informative.
Ma da grandi capacità derivano grandi responsabilità, e rischi. Con l'aumento della potenza di questi sistemi, gli episodi di comportamenti preoccupanti dell'IA durante i test di Anthropic ci ricordano che la corsa all'espansione delle capacità dell'IA deve essere bilanciata da un'attenta attenzione alla sicurezza e al controllo.
Mentre Claude impara a destreggiarsi tra un milione di informazioni contemporaneamente, Anthropic si trova ad affrontare il problema della finestra di contesto: rimanere intrappolata tra la pressione sui prezzi di OpenAI e le alleanze contrastanti di Microsoft.
Se vuoi fare colpo sul tuo capo, VB Daily ha la soluzione che fa per te. Ti forniamo informazioni privilegiate su ciò che le aziende stanno facendo con l'intelligenza artificiale generativa, dai cambiamenti normativi alle implementazioni pratiche, così puoi condividere approfondimenti per massimizzare il ROI.
Leggi la nostra Informativa sulla privacy
Grazie per esserti iscritto. Scopri altre newsletter di VB qui .
Si è verificato un errore.

venturebeat