Clock IA > MCP: ¿y si la IA hubiera encontrado a su director de orquesta?
MCP: ¿y si la IA hubiera encontrado a su director de orquesta?

MCP: cómo un simple estándar va poner (por fin) orden en el salvaje oeste de la IA

¿Cansado del rompecabezas de las herramientas de IA incompatibles? Un nuevo protocolo, el MCP, promete ser el director de orquesta. Y es más importante de lo que parece.

¿Pensabas que la próxima revolución de la Inteligencia Artificial vendría de modelos cada vez más gigantescos, capaces de predecir el clima en Trifouilly-les-Oies o de escribir poemas al estilo de Baudelaire bajo los efectos del LSD? ¡Te equivocas! La verdadera disrupción, la que cambia las reglas del juego entre bastidores, es mucho más discreta, casi... aburrida. ¿Su nombre? MCP. Y créenos, no por ser técnico deja de ser apasionante.

23/05/2025 02:05 Jérôme

Entonces, ¿qué es exactamente este MCP?

Detrás de este acrónimo un tanto complicado se esconde el Model Context Protocol. Lanzado por la empresa Anthropic en noviembre de 2024, el MCP es una especie de estándar, una norma si lo prefieres. ¿Su objetivo? Unificar la manera en que las aplicaciones de IA se comunican con el mundo exterior, es decir, más allá de sus datos de entrenamiento iniciales.

Para simplificarlo, imagina que las aplicaciones web utilizan protocolos como HTTP y REST para comunicarse entre sí y con los servidores. Pues bien, el MCP es algo similar, pero para que los modelos de IA puedan conectarse a diferentes herramientas (tus correos electrónicos, tu agenda, tus softwares de gestión de proyectos, etc.) sin tener que reinventar la rueda cada vez. Es como si finalmente hubiéramos inventado un enchufe universal para todas nuestras IA.

Por cierto, la idea rápidamente cautivó a grandes nombres: OpenAI, AWS, Azure, Microsoft Copilot Studio y, según nuestras fuentes, pronto Google, ya estarían participando. Incluso hay kits de desarrollo (los famosos SDK) disponibles en varios lenguajes: Python, TypeScript, Java, C#, Rust, Kotlin y Swift, sin contar las iniciativas comunitarias para Go y otros.

GPT-4.1 en ChatGPT: menos palabrería, más eficiencia para los profesionales de la IA.

Lily, o cómo el MCP ya está cambiando las reglas del juego

Para entender su impacto, tomemos el ejemplo de Lily, jefa de producto en una empresa de infraestructura cloud, un caso mencionado en el documento que hemos consultado. Lily, como muchos de nosotros, se ahogaba bajo las notificaciones y actualizaciones de una media docena de herramientas: Jira, Figma, GitHub, Slack, Gmail, Confluence... una verdadera pesadilla para mantenerse organizada.

Desde 2024, ya había intuido el potencial de los grandes modelos de lenguaje (los LLM, esas IA capaces de entender y generar texto) para sintetizar toda esa información. ¿El problema? Cada modelo tenía su propia manera de conectarse a los servicios. Un verdadero rompecabezas que la ataba cada vez más a una sola plataforma. Y cuando tuvo que integrar las transcripciones de una nueva herramienta, Gong, otra vez lo mismo: una conexión personalizada, haciendo aún más difícil un posible cambio de LLM.

Entonces llegó el MCP. Hoy, Lily gestiona todo a través de Claude (un modelo de IA), conectado a sus aplicaciones profesionales gracias a un servidor MCP local. Los informes de actividad casi se escriben solos, los resúmenes para la dirección están a un prompt de distancia. ¿Y si surge un nuevo modelo de IA más eficiente? Sin problema, puede adoptarlo sin perder sus valiosas integraciones. Incluso usa Cursor con un modelo de OpenAI y el mismo servidor MCP para sus proyectos personales de código. Su entorno de desarrollo ya "entiende" el producto en el que trabaja. ¿Mágico? No, ¡estandarizado!

La suscripción Ultra IA de Google: cuando la inteligencia artificial te pide (mucho) dinero de bolsillo

Los estándares: el arma secreta de la innovación

La historia de Lily ilustra una verdad simple: a nadie le gusta usar herramientas fragmentadas o sentirse atrapado por un proveedor. Todos queremos la libertad de usar las mejores herramientas, punto. Y ahí es donde entra el MCP.

Pero cuidado, donde hay estándares, también hay consecuencias.

En primer lugar, los proveedores de software como servicio (SaaS) que no tengan APIs públicas sólidas podrían quedarse fuera del juego. Los clientes exigirán compatibilidad con MCP para sus IA.

En segundo lugar, prepárate para una aceleración fulgurante en los ciclos de desarrollo de aplicaciones de IA. Ya no será necesario escribir kilómetros de código personalizado para probar una idea; los desarrolladores pueden apoyarse en servidores MCP y clientes listos para usar como Claude Desktop, Cursor o Windsurf.

En tercer lugar, los costos para cambiar de proveedor (o modelo de IA) se desplomarán. Dado que las integraciones están desacopladas de modelos específicos, las empresas podrán pasar de Claude a OpenAI o Gemini – o incluso mezclar modelos – sin tener que reconstruir todo.

¿Gemini o ChatGPT en 2025: ¿Cuál elegir?

MCP: Algunas piedras en el zapato (estándar)

Por supuesto, no todo es color de rosa en el mundo de los estándares. El MCP trae sus propios desafíos.

La confianza es crucial. Han surgido docenas de directorios MCP, ofreciendo miles de servidores mantenidos por la comunidad. Pero si no controlas el servidor – o a la persona que lo controla – corres el riesgo de que tus datos sensibles desaparezcan. De ahí la importancia de que las empresas SaaS proporcionen servidores oficiales.

La calidad también es un reto. Las APIs evolucionan, y un servidor MCP mal mantenido puede volverse obsoleto rápidamente, como un GPS que te envía a un campo de patatas. Todavía no existe un directorio MCP de referencia, lo que refuerza la necesidad de servidores oficiales y bien actualizados.

Cuidado también con la tentación del "mega-servidor MCP". Querer incluir demasiadas herramientas aumenta los costos (en "tokens" de cálculo consumidos por la IA) y, sobre todo, puede abrumar a los modelos con un exceso de opciones. Un LLM puede desorientarse fácilmente si tiene acceso a demasiadas herramientas. El documento sugiere que servidores más pequeños y especializados por tarea serán más efectivos.

Finalmente, persisten los desafíos relacionados con la autorización y la identidad. Imagina que Lily le da permiso a Claude para enviar correos con la instrucción bienintencionada: "Envía rápidamente una actualización a Chris". En lugar de escribirle a su jefe, Chris, la IA podría bombardear a todos los "Chris" de su libreta de direcciones. Para acciones críticas, la supervisión humana sigue siendo esencial.

El MCP no es una simple moda pasajera, sino, como destaca el documento que hemos analizado, un "cambio fundamental en la infraestructura de las aplicaciones de IA". Es una dinámica que se retroalimenta: cada nuevo servidor, cada nueva integración, cada nueva aplicación amplifica el movimiento. Ya están surgiendo nuevas herramientas y plataformas para simplificar la creación, prueba, despliegue y descubrimiento de servidores MCP.

Los equipos que adopten este protocolo "entregarán productos más rápido con mejores historias de integración". En cuanto a los rezagados, "tendrán que luchar por su relevancia". Así que, ¿listos para subirse al tren del MCP?

Al final, un poco de orden y método en el caótico mundo de la IA quizás no sea tan "aburrido" como parece. ¿Y si el verdadero superpoder fuera mantener ordenada nuestra habitación digital?

Jerome

Experto en desarrollo web, SEO e inteligencia artificial, mi experiencia práctica en la creación de sistemas automatizados se remonta a 2009. Hoy en día, además de redactar artículos para descifrar la actualidad y los desafíos de la IA, diseño soluciones a medida e intervengo como consultor y formador para una IA ética, eficiente y responsable.

Facebook - X (Twitter) - Linkedin
Clock IA > MCP: ¿y si la IA hubiera encontrado a su director de orquesta?