32.3 C
Colombia
lunes, julio 7, 2025

Qué es y por qué importa, parte 1 – O’Reilly


1. ELI5: Comprender MCP

Imagina que tienes un solo common enchufar que se ajusta a todos sus dispositivos, eso es esencialmente lo que el Protocolo de contexto modelo (MCP) es para ai. MCP es un Estándar abierto (pensar “USB-C para integraciones de IA“) Que permite que los modelos de IA se conecten a muchas aplicaciones y fuentes de datos diferentes de manera consistente. En términos simples, MCP permite que un asistente de IA hable con varias herramientas de software program utilizando un lenguaje común, en lugar de que cada herramienta requiere un adaptador o código personalizado diferente.

Esta imagen tiene un atributo ALT vacío; Su nombre de archivo es AD_4NXDZTCLZFY8ZHLCG_TJUM6NOMNB9F6FC7LB9JAL9XASG7GJKJUOAOHG0SHKBV-XMWYC uHMEVOQBZVFUQZXNWFVMFUNFAC10HQKDBMLNZL13ETPQGP080J59ZSXDBCBIJS3GEAO3CEW

Entonces, ¿qué significa esto en la práctica? Si está utilizando un asistente de codificación de IA como cursor o windsurf, MCP es el Protocolo compartido Eso le permite a ese asistente usar herramientas externas en su nombre. Por ejemplo, con MCP, un modelo de IA podría Obtenga información de una base de datos, edite un diseño en figma o controle una aplicación de música— Todo enviando instrucciones en idioma pure a través de una interfaz estandarizada. Usted (o la IA) ya no necesita cambiar manualmente contextos ni aprender la API de cada herramienta; el MCP “Translator” une la brecha entre el lenguaje humano y los comandos de software program.

En pocas palabras, MCP es como darle a su asistente de IA un management remoto common para operar todos sus dispositivos y servicios digitales. En lugar de estar atrapado en su propio mundo, su IA ahora puede alcanzar y presionar los botones de otras aplicaciones de manera segura e inteligente. Este protocolo común significa Una IA puede integrarse con miles de herramientas Mientras esas herramientas tengan una interfaz MCP, lo que elimina la necesidad de integraciones personalizadas para cada nueva aplicación. El resultado: su ayudante de IA se vuelve mucho más capaz, capaz de no solo charlar sobre cosas, sino también tomar acciones en el software program actual que usa.

🧩 Construyó un MCP que permite a Claude hablar directamente con Blender. ¡Te ayuda a crear hermosas escenas 3D usando solo indicaciones!

Aquí hay una demostración de mí creando una escena de “tesoro de protección de dragón bajo poli” en solo unas pocas oraciones👇

Video: Siddharth Ahuja

2. Contexto histórico: desde la predicción del texto hasta los agentes acuáticos de herramientas

Para apreciar MCP, es útil recordar cómo evolucionaron los asistentes de IA. Los primeros modelos de idiomas grandes (LLM) fueron esencialmente inteligentes Predictores de texto: Dado alguna entrada, generarían una continuación basada en patrones en los datos de entrenamiento. Eran poderosos para responder preguntas o escribir texto, pero Funcionalmente aislado-ellos han tenido No hay forma incorporada de usar herramientas externas o datos en tiempo actual. Si le pidió a un modelo de la period 2020 que verifique su calendario o obtuviera un archivo, no podría; Solo sabía cómo producir texto.

2023 fue un punto de inflexión. Los sistemas de IA como ChatGPT comenzaron a integrarse “herramientas“Y complementos. OpenAI introdujo llamadas de funciones y complementos, permitiendo que los modelos ejecutaran código, usen navegación internet o llamen a las API. Otros marcos (Langchain, AutoGpt, and so on.) surgieron, lo que permite comportamientos de” agente “de varios pasos. Estos enfoques permiten que una LLM actúe más como una una LLM como un agente Eso puede planificar acciones: por ejemplo, busque en la internet, ejecute algún código y luego responda. Sin embargo, en estas primeras etapas, cada integración fue único y advert hoc. Los desarrolladores tuvieron que conectar cada herramienta por separado, a menudo utilizando diferentes métodos: una herramienta podría requerir que la IA salga JSON; otro necesitaba un envoltorio de pitón personalizado; otro un formato de inmediato especial. Había No hay forma estándar Para que una IA sepa qué herramientas están disponibles o cómo invocarlas, todo estaba codificado.

Por finales de 2023la comunidad se dio cuenta de que para desbloquear completamente los agentes de IA, necesitábamos ir más allá del tratamiento de LLM como oráculos solitarios. Esto dio lugar a la thought de Agentes de herramientas—Ai sistemas que pueden observar, planificar y actuar en El mundo a través de herramientas de software program. Los asistentes de IA centrados en el desarrollador (cursor, cline, windsurf, and so on.) comenzaron a incrustar a estos agentes en IDES y flujos de trabajo, permitiendo que el código de lectura de IA, los compiladores de llamadas, ejecute pruebas, and so on., además de chatear. Cada integración de herramientas period inmensamente poderosa pero dolorosamente fragmentado: Un agente podría controlar un navegador internet generando un script de dramaturgo, mientras que otro podría controlar GIT ejecutando comandos de shell. No había un “idioma” unificado para estas interacciones, lo que lo hizo Difícil agregar nuevas herramientas o cambiar los modelos de IA.

Este es el telón de fondo contra el cual Antropic (los creadores del Asistente de Claude AI) introdujeron MCP en finales de 2024. Reconocieron que a medida que los LLM se volvieron más capaces, el El cuello de botella ya no period la inteligencia del modelo, sino su conectividad. Cada nueva fuente o aplicación de datos requería un código de pegamento a medida, ralentizando la innovación. MCP surgió de la necesidad de estandarizar la interfaz Entre la IA y el amplio mundo del software program, como establecer un protocolo común (HTTP) habilitó la explosión de la internet. Representa el siguiente paso pure en la evolución de LLM: desde la predicción del texto puro hasta los agentes con herramientas (cada uno personalizado) hasta Agentes con una interfaz de herramienta common.

3. El problema resuelve MCP

Sin MCP, la integración de un asistente de IA con herramientas externas es un poco como tener un montón de electrodomésticos, cada uno con un enchufe diferente y sin salida common. Los desarrolladores estaban lidiando con integraciones fragmentadas en todos lados. Por ejemplo, su IDE AI podría usar un método para obtener el código de GitHub, otro para obtener datos de una base de datos y otro para automatizar una herramienta de diseño, cada integración que necesita un adaptador personalizado. Esto no solo es intensivo en el trabajo; Es frágil y no escala. Como lo expresó Anthrope:

Incluso los modelos más sofisticados están limitados por su aislamiento de los datosAtrapado detrás de los silos de información … Cada nueva fuente de datos requiere su propia implementación personalizada, lo que hace que los sistemas verdaderamente conectados sean difíciles de escalar.

MCP aborda esta fragmentación de frente ofreciendo Un protocolo común para todas estas interacciones. En lugar de escribir un código separado para cada herramienta, un desarrollador puede implementar la especificación MCP e instantáneamente hacer que su aplicación sea accesible para cualquier IA que hable MCP. Este simplifica drásticamente la matriz de integración: Las plataformas de IA necesitan admitir solo MCP (no docenas de API), y los desarrolladores de herramientas pueden exponer la funcionalidad una vez (a través de un servidor MCP) en lugar de asociarse con cada proveedor de IA por separado.

Otro gran desafío fue Herramienta a herramienta “desajuste del idioma”. Cada software program o servicio tiene su propia API, formato de datos y vocabulario. Un agente de IA que intentaba usarlos tenía que conocer todos estos matices. Por ejemplo, decirle a una IA que obtenga un informe de Salesforce en comparación con la consulta de una base de datos SQL en lugar de editar un archivo de Photoshop son procedimientos completamente diferentes en un mundo anterior a MCP. Este desajuste significaba la IA “Intención” tuvo que traducirse al dialecto único de cada herramienta—Cuente por ingeniería rápida frágil o código personalizado. MCP resuelve esto imponiendo una interfaz estructurada y autodescritora: las herramientas pueden declarar sus capacidades de manera estandarizaday la IA puede invocar esas capacidades a través de intentos de lenguaje pure que el servidor MCP analiza. En efecto, MCP le enseña un poco a todas las herramientas mismo idiomaentonces la IA no necesita mil libros de frases.

El resultado es mucho más arquitectura robusta y escalable. En lugar de construir integraciones n × m (n modelos de herramientas de m ai), tenemos un protocolo para gobernarlos a todos. Como describió el anuncio de Anthrope, MCP “reemplaza las integraciones fragmentadas con un solo protocolo”, produciendo un forma más easy y confiable Para dar acceso a la IA a los datos y acciones que necesita. Esta uniformidad también allana el camino para Mantener el contexto en todas las herramientas—Un IA puede transportar conocimiento de una herramienta habilitada para MCP a otra porque las interacciones comparten un marco común. En resumen, MCP aborda la pesadilla de integración al introducir un tejido conectivo común, lo que permite a los agentes de IA conectarse a nuevas herramientas tan fácilmente como una computadora portátil acepta un dispositivo USB.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles