Claude ahora puede procesar proyectos de software completos en una sola solicitud, afirma Anthropic

¿Quieres recibir información más inteligente en tu bandeja de entrada? Suscríbete a nuestros boletines semanales para recibir solo lo que importa a los líderes empresariales en IA, datos y seguridad. Suscríbete ahora.
Anthropic anunció el martes que su modelo de inteligencia artificial Claude Sonnet 4 ahora puede procesar hasta un millón de tokens de contexto en una sola solicitud, un aumento de cinco veces que permite a los desarrolladores analizar proyectos de software completos o docenas de artículos de investigación sin dividirlos en fragmentos más pequeños.
La expansión, disponible ahora en beta pública a través de la API de Anthropic y Amazon Bedrock , representa un avance significativo en la capacidad de los asistentes de IA para gestionar tareas complejas que requieren un uso intensivo de datos. Con esta nueva capacidad, los desarrolladores pueden cargar bases de código con más de 75 000 líneas, lo que permite a Claude comprender la arquitectura completa del proyecto y sugerir mejoras para sistemas completos, en lugar de archivos individuales.
El anuncio se produce en un momento en que Anthropic se enfrenta a una competencia cada vez mayor de OpenAI y Google , que ya ofrecen ventanas de contexto similares. Sin embargo, fuentes de la compañía, que hablaron en privado, enfatizaron que la fortaleza de Claude Sonnet 4 no reside solo en su capacidad, sino también en su precisión, logrando un rendimiento del 100 % en evaluaciones internas de " aguja en un pajar " que prueban la capacidad del modelo para encontrar información específica oculta en grandes cantidades de texto.
La capacidad de contexto extendido aborda una limitación fundamental que ha limitado el desarrollo de software basado en IA. Anteriormente, los desarrolladores que trabajaban en proyectos grandes tenían que dividir manualmente sus bases de código en segmentos más pequeños, lo que a menudo perdía conexiones importantes entre las diferentes partes de sus sistemas.
La escalabilidad de la IA alcanza sus límites
Los límites de potencia, el aumento de los costos de los tokens y los retrasos en la inferencia están transformando la IA empresarial. Únase a nuestro exclusivo salón para descubrir cómo los mejores equipos:
- Convertir la energía en una ventaja estratégica
- Arquitectura de inferencia eficiente para obtener ganancias de rendimiento reales
- Cómo desbloquear el ROI competitivo con sistemas de IA sostenibles
Reserva tu lugar para estar a la vanguardia : https://bit.ly/4mwGngO
“Lo que antes era imposible ahora es una realidad”, declaró Sean Ward, director ejecutivo y cofundador de iGent AI , con sede en Londres, cuya plataforma Maestro transforma conversaciones en código ejecutable. “Claude Sonnet 4, con un contexto de tokens de 1 millón, ha potenciado las capacidades autónomas de Maestro, nuestro agente de ingeniería de software. Este avance permite una verdadera ingeniería a escala de producción: sesiones de varios días sobre bases de código reales”.
Eric Simons, CEO de Bolt.new , que integra a Claude en plataformas de desarrollo basadas en navegador, dijo en una declaración: "Con la ventana de contexto de 1M, los desarrolladores ahora pueden trabajar en proyectos significativamente más grandes y, al mismo tiempo, mantener la alta precisión que necesitamos para la codificación del mundo real".
El contexto ampliado permite tres casos de uso principales que antes eran difíciles o imposibles: análisis de código exhaustivo en repositorios completos, síntesis de documentos que involucra cientos de archivos manteniendo el conocimiento de las relaciones entre ellos, y agentes de IA conscientes del contexto que pueden mantener la coherencia en cientos de llamadas de herramientas y flujos de trabajo complejos.
Anthropic ha ajustado su estructura de precios para reflejar los mayores requisitos computacionales que implica procesar contextos más amplios. Mientras que los pedidos de 200 000 tokens o menos mantienen su precio actual en 3 $ por millón de tokens de entrada y 15 $ por millón de tokens de salida, los pedidos de mayor tamaño cuestan 6 $ y 22,50 $, respectivamente.
La estrategia de precios refleja una dinámica más amplia que está transformando la industria de la IA. Análisis recientes muestran que Claude Opus 4 cuesta aproximadamente siete veces más por millón de tokens que el recién lanzado GPT-5 de OpenAI para ciertas tareas, lo que presiona a los equipos de compras empresariales para que equilibren rendimiento y costo.
Sin embargo, Anthropic argumenta que la decisión debería considerar la calidad y los patrones de uso, no solo el precio. Fuentes de la empresa señalaron que el almacenamiento en caché rápido, que almacena grandes conjuntos de datos a los que se accede con frecuencia, puede hacer que el contexto extenso sea competitivo en costos con los enfoques tradicionales de Generación Aumentada por Recuperación , especialmente para empresas que consultan repetidamente la misma información.
“El contexto amplio le permite a Claude ver todo y elegir lo que es relevante, lo que a menudo produce mejores respuestas que los resultados RAG prefiltrados, donde se podrían perder conexiones importantes entre documentos”, dijo un portavoz de Anthropic a VentureBeat.
La capacidad de contexto extenso llega cuando Anthropic domina el 42% del mercado de generación de código de IA, más del doble del 21% de OpenAI, según una encuesta de Menlo Ventures a 150 líderes técnicos empresariales. Sin embargo, este dominio conlleva riesgos: el análisis del sector sugiere que las aplicaciones de programación Cursor y GitHub Copilot generan aproximadamente 1.200 millones de dólares de los 5.000 millones de dólares de ingresos anuales de Anthropic , lo que genera una importante concentración de clientes .
La relación con GitHub resulta particularmente compleja dada la inversión de 13 000 millones de dólares de Microsoft en OpenAI . Si bien GitHub Copilot depende actualmente de Claude para funciones clave, Microsoft se enfrenta a una creciente presión para integrar más profundamente su propia colaboración con OpenAI, lo que podría desplazar a Anthropic a pesar de las ventajas de rendimiento actuales de Claude.
El momento de la expansión del contexto es estratégico. Anthropic lanzó esta capacidad en Sonnet 4 , que ofrece lo que la compañía denomina "el equilibrio óptimo entre inteligencia, coste y velocidad", en lugar de su modelo más potente, Opus . Fuentes de la compañía indicaron que esto refleja las necesidades de los desarrolladores que trabajan con datos a gran escala, aunque se negaron a proporcionar plazos específicos para incorporar el contexto extenso a otros modelos de Claude.
La ventana de contexto de un millón de tokens representa un avance técnico significativo en los mecanismos de memoria y atención de la IA. Para ponerlo en perspectiva, es suficiente para procesar aproximadamente 750.000 palabras, aproximadamente el equivalente a dos novelas completas o extensos conjuntos de documentación técnica.
Las pruebas internas de Anthropic revelaron un rendimiento de recuperación perfecto en diversos escenarios, una capacidad crucial a medida que se amplían las ventanas de contexto. La compañía integró información específica en grandes volúmenes de texto y puso a prueba la capacidad de Claude para encontrar y utilizar esos detalles al responder preguntas.
Sin embargo, la ampliación de las capacidades también plantea problemas de seguridad. Versiones anteriores de Claude Opus 4 mostraron comportamientos preocupantes en escenarios ficticios, incluyendo intentos de chantaje ante un posible apagado. Si bien Anthropic ha implementado medidas de seguridad y capacitación adicionales para abordar estos problemas, los incidentes ponen de relieve los complejos desafíos que supone desarrollar sistemas de IA cada vez más capaces.
Las empresas Fortune 500 se apresuran a adoptar las capacidades de contexto ampliadas de ClaudeEl lanzamiento de funciones está limitado inicialmente a los clientes de la API de Anthropic con Nivel 4 y límites de velocidad personalizados, y se prevé una mayor disponibilidad en las próximas semanas. Los usuarios de Amazon Bedrock tienen acceso inmediato, mientras que la integración de Vertex AI con Google Cloud está pendiente.
Según fuentes de la compañía, la respuesta inicial de las empresas ha sido entusiasta. Los casos de uso abarcan desde equipos de programación que analizan repositorios completos hasta empresas de servicios financieros que procesan conjuntos de datos de transacciones completos, y startups legales que realizan análisis de contratos que antes requerían la segmentación manual de documentos.
“Esta es una de las funciones más solicitadas por los clientes de API”, afirmó un portavoz de Anthropic. “Estamos observando entusiasmo en diversos sectores que liberan verdaderas capacidades de agencia, con clientes que ahora realizan sesiones de programación de varios días en bases de código reales, algo que antes habría sido imposible con las limitaciones del contexto”.
El desarrollo también permite agentes de IA más sofisticados que pueden mantener el contexto en flujos de trabajo complejos de varios pasos. Esta capacidad se vuelve especialmente valiosa a medida que las empresas van más allá de las simples interfaces de chat de IA hacia sistemas autónomos capaces de gestionar tareas extensas con mínima intervención humana.
El extenso anuncio contextual intensifica la competencia entre los principales proveedores de IA. Tanto el modelo Gemini 1.5 Pro de Google como el modelo GPT-4.1 de OpenAI, ambos más antiguos, ofrecen un millón de ventanas de tokens, pero Anthropic argumenta que el rendimiento superior de Claude en tareas de codificación y razonamiento proporciona una ventaja competitiva incluso a precios más altos.
La industria de la IA en general ha experimentado un crecimiento explosivo en el gasto en API de modelos, que se duplicó hasta alcanzar los 8.400 millones de dólares en tan solo seis meses, según Menlo Ventures . Las empresas priorizan constantemente el rendimiento sobre el precio, actualizando sus equipos a modelos más nuevos en cuestión de semanas, independientemente del coste, lo que sugiere que las capacidades técnicas suelen prevalecer sobre el precio en las decisiones de compra.
Sin embargo, la reciente estrategia agresiva de precios de OpenAI con GPT-5 podría transformar esta dinámica. Las primeras comparaciones muestran importantes ventajas de precio que podrían superar la típica inercia de cambio, especialmente para empresas preocupadas por los costes que se enfrentan a presiones presupuestarias a medida que aumenta la adopción de la IA.
Para Anthropic, mantener su liderazgo en el mercado de la programación y, al mismo tiempo, diversificar sus fuentes de ingresos sigue siendo crucial. La compañía triplicó el número de acuerdos de ocho y nueve cifras firmados en 2025 en comparación con todo 2024, lo que refleja una mayor adopción empresarial más allá de sus fuertes en programación.
A medida que los sistemas de IA se vuelven capaces de procesar y razonar sobre cantidades cada vez mayores de información, están cambiando fundamentalmente la forma en que los desarrolladores abordan proyectos de software complejos. La capacidad de mantener el contexto en bases de código completas representa una transición de la IA como asistente de programación a la IA como un socio de desarrollo integral que comprende el alcance completo y las interconexiones de los proyectos a gran escala.
Las implicaciones van mucho más allá del desarrollo de software. Sectores que van desde los servicios legales hasta el análisis financiero están empezando a reconocer que los sistemas de IA capaces de mantener el contexto en cientos de documentos podrían transformar la forma en que las organizaciones procesan y comprenden las relaciones complejas de información.
Pero una gran capacidad conlleva una gran responsabilidad y un gran riesgo. A medida que estos sistemas se vuelven más potentes, los incidentes de comportamiento preocupante de la IA durante las pruebas de Anthropic sirven como recordatorio de que la carrera por expandir las capacidades de la IA debe equilibrarse con una cuidadosa atención a la seguridad y el control.
Mientras Claude aprende a manejar simultáneamente un millón de piezas de información, Anthropic enfrenta su propio problema de ventana de contexto: quedar atrapado entre la presión de precios de OpenAI y las lealtades conflictivas de Microsoft.
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Te ofrecemos información exclusiva sobre lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, para que puedas compartir tus conocimientos y maximizar el retorno de la inversión.
Lea nuestra Política de Privacidad
Gracias por suscribirte. Consulta más boletines de VB aquí .
Se produjo un error.

venturebeat