INTERNACIONALES: INTELIGENCIA ARTIFICIAL

Anthropic/Claude, disruptores inesperados: destrucción creativa y dilemas ante Defensa

En un ecosistema digital caraterizado por la convergencia entre inteligencia artificial generativa..

25 de Febrero de 2026

 

En un ecosistema digital caraterizado por la convergencia entre inteligencia artificial generativa y la obsolescencia acelerada de infraestructuras legadas, Anthropic emerge como agente de disrupción.

Inteligencia artificial, Departamento de Defensa

Su modelo insignia, Claude, no solo representa un avance técnico en razonamiento multimodal y agenticidad, sino que encarna un desafío existencial para los modelos de negocio tradicionales de las firmas de desarrollo de software denominadas 'boomer': esto es, las ancladas en prácticas del tipo waterfall, mantenimiento de código legacy, consultoría manual intensiva en base a horas-hombre y licencias perpetuas o suscripciones SaaS estáticas.


El surgimiento de Anthropic y la arquitectura de Claude: el nuevo paradigma de los agentes

Anthropic, fundada en 2021 por exejecutivos de OpenAI y estructurada como Public Benefit Corporation, se distingue por su enfoque en la AI Constitutiva, marco de directrices que prioriza principios éticos codificados explícitamente para mitigar riesgos de desalineación. Claude, su familia de large language modules (LLMs), ha evolucionado hacia modalidades avanzadas con empleo de agentes, particularmente con Claude Code y Claude Cowork. No se trata de meros chatbots: constituyen sistemas autónomos capaces de orquestar flujos de trabajo complejos, mapear dependencias en codebases de extensas líneas, generar artefactos de software verificables y ejecutar tareas de conocimiento intensivo con mínima supervisión humana.

A diferencia de los enfoques estrictamente escalares de la competencia, Claude enfatiza el razonamiento en cadena (chain-of-thought) extendido, la introspección contextual y la capacidad de autovalidación reiterativa. En el dominio del desarrollo de software, Claude Code trasciende a la finalización de código para convertirse en un ingeniero reverso virtual: analiza arquitecturas monolíticas, identifica deudas técnicas implícitas y propone migraciones incrementales. Este formato de agenticidad representa un salto ontológico: del software como producto estático al software como proceso dinámico y autoevolutivo.


Caso IBM: de la fortaleza mainframe a la vulnerabilidad COBOL

Ningún ejemplo ilustra con mayor crudeza esta disrupción que el impacto sobre IBM, icónica firma 'boomer' cuya resiliencia centenaria se sustenta en el ecosistema mainframe y el lenguaje COBOL (Common Business-Oriented Language), desarrollado en la década de 1950.

COBOL sustenta, de acuerdo a estimaciones consolidadas, aproximadamente el 95% de las transacciones con cajeros automáticos en los Estados Unidos, así como sistemas críticos en banca, aerolíneas, seguros y administraciones públicas. IBM ha monetizado esta dependencia mediante servicios de modernización y mantenimiento: contratos plurianuales de consultoría que involucran ejércitos de especialistas en ingeniería inversa, mapeo de flujos y migración a entornos híbridos en la nube.

El 23 de febrero de 2026, Anthropic publicó en su blog oficial un análisis transformador titulado "How AI Helps Break the Cost Barrier to COBOL Modernization". Allí, Claude Code se posiciona como el catalizador que automatiza las fases más onerosas del proceso, esto es, el mapeo de dependencias a través de miles de líneas y subrutinas, trazado de caminos de ejecución implícitos (incluyendo estructuras de datos compartidas y estados globales), documentación de flujos de datos olvidados y análisis de riesgos de acoplamiento. El post afirma, categóricamente: 'Con IA, los equipos pueden modernizar su base de código COBOL en trimestres en lugar de años', invirtiendo la ecuación económica tradicional donde 'entender el código cuesta más que reescribirlo'.

Las consecuencias bursátiles fueron inmediatas y devastadoras: las acciones de IBM retrocedieron en un 13,2% a lo largo de una sola jornada, su peor desempeño desde el estallido de la burbuja dotcom en 2000. Analistas de Seeking Alpha y Forbes interpretaron el evento como el inicio de una 'amenaza estructural' a los ingresos por consultoría de IBM, que representan una porción significativa de su backlog de US$ 32 mil millones.

Aunque IBM contraargumentó -señalando que la verdadera complejidad radica en el rediseño de arquitecturas de datos, integridad transaccional y acoplamiento hardware-software acumulado durante décadas-, el mensaje del mercado fue inequívoco: la barrera de expertise escasa (COBOL se enseña en pocas universidades, y su cohorte de expertos se jubila) se derrumba ante el devastador avance de Claude.

Este episodio no es aislado; refleja una vulnerabilidad sistémica. Firmas como Oracle, SAP y Unisys enfrentan riesgos análogos: la agenticidad de Claude apura la obsolescencia de sus ofertas de soporte y migración, la compresión de márgenes y la migración forzada hacia modelos apalancados en AI.


Amenazas Extendidas: SaaS, consultorías y el 'SaaSpocalypse'

Más allá de IBM, Claude Cowork -lanzado con plugins especializados en terminología legal, finanzas, marketing y análisis de datos- ha provocado una suerte de 'SaaSpocalypse' que, durante este mes de febrero, evaporó centenares de miles de millones en valor de mercado de acciones de software. Los plugins dedicados a revisión contractual, investigación regulatoria y automatización de flujos de ventas socavan directamente a, por ejemplo, Thomson Reuters, Salesforce, ServiceNow y HubSpot.

Estos agentes no solo generan borradores; entregan outputs casi definitivos con validación reiterativa, reduciendo la necesidad de licencias SaaS fragmentadas. Las consultorías tradicionales -Accenture, Deloitte, Capgemini- ven amenazado su modelo de horas facturables: tareas de análisis de requisitos, documentación y pruebas unitarias, antaño fuente de márgenes elevados, se automatizan en horas en lugar de meses.

El denominado Efecto Anthropic fuerza al repricing sectorial: los múltiplos de valoración de SaaS se desmoronan, ante la perspectiva de que los modelos fundacionales desarrollen flujos de trabajo (workflows) integrales, comprimiendo el poder de determinación de precios y erosionando estándares basados en datos del propietario original. En términos macro, esto remite a una desintermediación masiva: del paradigma 'software como servicio' se transitaría hacia la 'IA como colega cognitivo' donde el valor se desplaza hacia la orquestación de agentes y la gobernanza ética, no hacia la mera posesión de código fuente.


Implicancias para los modelos de negocio tradicionales: de la estabilidad a la turbulencia adaptativa

Los modelos tradicionales operan bajo premisas fordianas: inversión en infraestructura, y recurrencia predecible vía mantenimiento. Claude introduce externalidades disruptivas: compresión temporal y compresión de costos. En tal virtud, migraciones que requerían entre veinticuatro y treinta y seis meses, se reducen ahora a tres o seis trimestres -lo cual libera capital, aunque pulveriza flujos de ingresos recurrentes. Y se registran incidencias en distintos apartados:

- Reconfiguración de la fuerza laboral. La demanda de programadores COBOL o analistas colapsa, mientras surge la necesidad de contar con 'prompt engineers' y supervisores de agentes. Esto genera desempleo estructural en las planas senior y presiones salariales en roles de supervisión.
- Transición de modelos de ingresos. De licencias perpetuas o T&M (time and materials) a suscripciones basadas en consumo de tokens o de resultados obtenidos por agentes. Las firmas que no adopten inteligencia artificial nativa e híbrida deberán lidiar con una erosión de sus márgenes, de entre el 30 y el 50%, de acuerdo a proyecciones.
- Riesgos regulatorios y de compliance. La proliferación de la agenticidad plantea desafíos en el concierto de la auditoría (¿quién es responsable de código generado por Claude?) y la soberanía de datos, forzando a las industrias del software tradicional a invertir en abogados entendidos en gobernancia con IA.
 
En síntesis, la optimización de Claude cataliza un proceso acelerado de destrucción creativa: pulveriza rentas basadas en la escasez del expertise tradicional, aunque genera novedosas y múltiples oportunidades para quienes cuenten con entrenamiento en la tutela de plataformas de orquestación multi-agente.


El Dilema Ético: Anthropic versus el Departamento de Defensa. La IA Constitucional versus el Imperativo Nacional

En paralelo a su ofensiva comercial, Anthropic enfrenta un dilema existencial con el Departamento de Defensa de los Estados Unidos de América, que ilustra las tensiones entre alineación ética y realpolitik.

Hacia julio de 2025, el Pentágono adjudicó contratos de hasta US$ 200 millones a Anthropic, convirtiéndola en la primera firma AI aprobada para operar con redes clasificadas. Claude fue integrado en operaciones, incluyendo -según informes fechados en enero de 2026- la planificación de la operación que resultó en la captura de Nicolás Maduro en Caracas.

Sin embargo, Anthropic mantiene cercos estrictos derivados de su IA Constitucional: explícitamente, ha prohibido el eventual involucramiento de Claude con armamento autónomo letal (que remueva al ser humano de la ecuación), y también en actividades de monitoreo masivo de ciudadanos estadounidenses en el concierto doméstico. El CEO Dario Amodei ha reiterado en ensayos y podcasts que tales aplicaciones representan 'claras fronteras éticas', citando el riesgo potencial de enjambres de UAVs y sistemas de vigilancia que pudieran emplearse para suprimir el disenso, al rastrear miles de millones de interacciones.

El conflicto escaló dramáticamente en febrero de 2026. El 25 de este mes, el Secretario de Defensa estadounidense Pete Hegseth se reunió con Amodei, otorgándole un plazo hasta el viernes 28 de febrero para que proceda a relajar aquellas restricciones, o Anthropic deberá lidiar con la anulación del contrato. Más grave aún, el funcionario amenazó con designar a la firma como un riesgo para la cadena de suministro de la defensa del país, equiparando la acción con una designación como 'proveedor de naciones adversarias', e invocando el Acta de Producción para la Defensa a criterio de forzar el acceso.

El Pentágono argumenta que las limitaciones 'ideológicas' socavan la seguridad nacional, y que la responsabilidad en el empleo legal de recursos tecnológicos recae exclusivamente en el gobierno. Anthropic, por su parte, subraya que su chárter prioriza el beneficio público a largo plazo por encima de las ganancias obtenidas a corto plazo.

La renuncia del investigador de seguridad Mrinank Sharma el 9 de febrero, citando la recurrencia de 'crisis interconectadas' y refiriéndose a presiones para abandonar valores centrales, subraya las tensiones internas. Este dilema auspicia un conflicto a escala nacional: ¿puede una empresa privada vetar recursos militares tecnológicos con uso dual, en una instancia histórica en la que la asimetría demostrada por el accionar de naciones adversarias -Rusia, China- exigen consolidar la supremacía estadounidense en el dominio de la AI?

Las implicancias son profundas: si Anthropic cede, erosiona su plafón de confianza ética. Si resistiere, arriesgaría a la exclusión de contratos gubernamentales críticos, y a una probable nacionalización de facto de su IP.

La impasse no solo afecta a Anthropic; también provoca ecos en todo el sector: ¿deberían los modelos fundacionales someterse a una supervisión gubernamental prioritaria, que considere 'excepciones de seguridad nacional'?


Conclusiones y Perspectivas: Hacia un Ecosistema Post-Legacy

Claude no es una mera herramienta; sería un vector de transformación que acelera la obsolescencia de los ecosistemas 'boomer' al tiempo que impone un nuevo estándar de agenticidad ética y eficiencia. Para IBM y sus pares, la respuesta debería ser híbrida: integrar Claude (o equivalentes) en sus stacks mientras reinventan ofertas en torno a la resiliencia de la IA -aunque garantizando una integridad transaccional que los LLMs aún no replican en plenitud.

Las firmas que insistan en negar el nuevo conierto habrán de lidiar con una extinción al modo darwiniano. Aquellas que adopten una gobernancia proactiva, lograrán prosperar en un mundo donde el software se vuelve fluido y cognitivo.

A la postre, el dilema Anthropic/DoD consigna que la disrupción tecnológica trasciende a lo económico: plantea interrogantes filosóficos en la periferia de la soberanía algorítmica, y demarca los límites de la alineación corporativa con el interés público. En última instancia, Anthropic y Claude no solo son amenazas contra los balances financieros, sino que redefinen el contrato social de la innovación.

Las firmas tradicionales que internalicen con sapiencia esta lección -vale decir, evolucionando de guardianes de código estático a curadores de ecosistemas agénticos -salvarán la ropa. El resto se convertirá en reliquias de una era pre-paradigmática.