Was ist MCP?

Fortgeschrittene4/24/2025, 8:49:49 AM
MCP (Model Context Protocol) ist ein aufstrebendes Feld, das in letzter Zeit die Aufmerksamkeit von Web2-Tech-Unternehmen wie Google auf sich gezogen hat. Der Artikel bietet eine eingehende Analyse der Prinzipien und Positionierung des MCP-Protokolls und erläutert, wie es großen Sprachmodellen (LLMs) Kontext durch standardisierte Kommunikation mit Anwendungen liefert. Er untersucht auch das Team hinter DARK, MtnDAO, und wie die starken Umsetzungsfähigkeiten des Gründers Edgar Pavlovsky und der zukünftige Ausblick des Teams möglicherweise den Preis des Tokens in die Höhe treiben könnten.

Weiterleitung des Originaltitels 'Künstliche Intelligenz's USB-C-Standard: Verständnis von MCP'

Während meiner Jahre bei Alliance habe ich unzählige Gründer dabei beobachtet, wie sie ihre eigenen spezialisierten Tools und Datenintegrationen in ihre KI-Agenten und Workflows eingebaut haben. Allerdings sind diese Algorithmen, Formalisierungen und einzigartigen Datensätze hinter benutzerdefinierten Integrationen versteckt, die nur wenige Menschen jemals nutzen würden.

Dies hat sich mit dem Aufkommen des Model Context Protocol rapide verändert. MCP wird als ein offenes Protokoll definiert, das standardisiert, wie Anwendungen kommunizieren und Kontext für LLMs bereitstellen. Eine Analogie, die mir sehr gefallen hat, ist, dass "MCPs für KI-Anwendungen wie USB-C für Hardware" sind; das ist standardisiert, plug-and-playfähig, vielseitig und transformierend.

Warum MC?

LLMs wie Claude, OpenAI, LLAMA usw. sind unglaublich leistungsstark, aber sie sind durch die Informationen begrenzt, auf die sie im Moment zugreifen können. Das bedeutet, dass sie in der Regel Wissensgrenzen haben, nicht unabhängig im Web surfen können und keinen direkten Zugriff auf Ihre persönlichen Dateien oder spezialisierte Tools ohne eine Form der Integration haben.

Insbesondere standen Entwickler zuvor vor drei großen Herausforderungen bei der Verbindung von LLMs mit externen Daten und Tools:

  1. Integrationskomplexität: Der Aufbau separater Integrationen für jede KI-Plattform (Claude, ChatGPT usw.) erforderte eine doppelte Anstrengung und die Pflege mehrerer Codebasen.
  2. Tool Fragmentation: Jede Tool-Funktionalität (z.B. Dateizugriff, API-Verbindungen usw.) benötigte ihren eigenen spezialisierten Integrationscode und Berechtigungsmodell
  3. Begrenzte Verteilung: Spezialisierte Werkzeuge waren auf spezifische Plattformen beschränkt, was ihre Reichweite und Auswirkungen einschränkte

MCP löst diese Probleme, indem es einen standardisierten Weg bietet, damit jede LLM sicher auf externe Tools und Datenquellen über ein gemeinsames Protokoll zugreifen kann. Nun, da wir verstehen, was MCP macht, werfen wir einen Blick darauf, was die Leute damit bauen.

Was bauen die Leute mit MCP?

Das MC-Ökosystem explodiert derzeit vor Innovationen. Hier sind einige aktuelle Beispiele, die ich auf Twitter gefunden habe, bei denen Entwickler ihre Arbeit präsentieren.

  • KI-unterstützte Storyboarderstellung: Eine MC-Integration, die es Claude ermöglicht, ChatGPT-4o zu steuern, um automatisch vollständige Storyboards im Ghibli-Stil ohne menschliches Eingreifen zu generieren.
  • ElevenLabs Sprachintegration: Ein MCP-Server, der Claude und Cursor über einfache Texteingaben Zugriff auf ihre gesamte KI-Audio-Plattform gewährt. Die Integration ist leistungsstark genug, um Sprachassistenten zu erstellen, die ausgehende Telefonanrufe tätigen können. Dies zeigt, wie MCP aktuelle KI-Tools in den Audiobereich erweitern kann.
  • Browser-Automatisierung mit Playwright: Ein MCP-Server, der es KI-Agenten ermöglicht, Webbrowser zu steuern, ohne Screenshots oder Bildmodelle zu benötigen. Dies eröffnet neue Möglichkeiten für die Webautomatisierung, indem LLMs eine direkte Steuerung über Browserinteraktionen auf standardisierte Weise erhalten.
  • Persönliche WhatsApp-Integration: Ein Server, der eine Verbindung zu persönlichen WhatsApp-Konten herstellt und es Claude ermöglicht, Nachrichten und Kontakte zu durchsuchen sowie neue Nachrichten zu senden.
  • Airbnb Suchwerkzeug: Ein Airbnb-Apartment-Suchwerkzeug, das die Einfachheit und Leistung von MC für die Erstellung praktischer Anwendungen zeigt, die mit Webdiensten interagieren.
  • Robotersteuerungssystem: Ein MCP-Controller für einen Roboter. Das Beispiel überbrückt die Kluft zwischen LLMs und physischer Hardware und zeigt das Potenzial von MCP für IoT-Anwendungen und Robotik.
  • Google Maps und lokale Suche: Durch die Verbindung von Claude mit Google Maps-Daten wird ein System erstellt, das lokale Unternehmen wie Cafés finden und empfehlen kann. Diese Erweiterung ermöglicht KI-Assistenten mit standortbasierten Diensten.
  • Blockchain-Integration: Das Lyra MCP-Projekt bringt MCP-Funktionen auf StoryProtocol und andere Web3-Plattformen. Dies ermöglicht die Interaktion mit Blockchain-Daten und Smart Contracts und eröffnet neue Möglichkeiten für dezentralisierte Anwendungen, die durch KI verbessert werden.

Was diese Beispiele besonders überzeugend macht, ist ihre Vielfalt. In der kurzen Zeit seit ihrer Einführung haben Entwickler Integrationen in den Bereichen kreative Medienproduktion, Kommunikationsplattformen, Hardwaresteuerung, Standortdienste und Blockchain-Technologie geschaffen. All diese vielfältigen Anwendungen folgen demselben standardisierten Protokoll und zeigen die Vielseitigkeit und das Potenzial von MCP, zu einem universellen Standard für die Integration von KI-Tools zu werden.

Für eine umfassende Sammlung von MC-Servern, schauen Sie sich die anoffizieller MCP-Server-Repository auf GitHubMit einem sorgfältigen Haftungsausschluss sollten Sie vorsichtig sein, bevor Sie einen MC-Server verwenden und darauf achten, was Sie ausführen und welche Berechtigungen Sie erteilen.

Versprechen vs. Hype

Bei jeder neuen Technologie lohnt es sich zu fragen: Ist MCP wirklich transformierend oder nur ein weiteres überhyptes Werkzeug, das verschwinden wird?

Nachdem ich zahlreiche Startups in diesem Bereich beobachtet habe, glaube ich, dass MCP einen echten Wendepunkt für die KI-Entwicklung darstellt. Im Gegensatz zu vielen Trends, die eine Revolution versprechen, aber inkrementelle Veränderungen bringen, ist MCP ein Produktivitätsschub, der ein grundlegendes Infrastrukturproblem löst, das das gesamte Ökosystem zurückgehalten hat.

Was es besonders wertvoll macht, ist, dass es nicht versucht, bestehende KI-Modelle zu ersetzen oder mit ihnen zu konkurrieren, sondern sie alle nützlicher macht, indem es sie mit externen Tools und den Daten, die sie benötigen, verbindet.

Das gesagt, gibt es berechtigte Bedenken hinsichtlich Sicherheit und Standardisierung. Wie bei jedem Protokoll in seinen Anfangstagen werden wir wahrscheinlich wachsende Probleme sehen, während die Community bewährte Verfahren für Audits, Berechtigungen, Authentifizierung und Serververifizierung erarbeitet. Der Entwickler muss der Funktionalität dieser MC-Server vertrauen und sollte ihnen nicht blind vertrauen, insbesondere da sie zahlreich geworden sind.Dieser Artikeldiskutiert einige der kürzlich durch Blindy aufgedeckten Schwachstellen bei MCP-Servern, die selbst bei lokalem Betrieb nicht sorgfältig geprüft wurden.

Die Zukunft von KI ist kontextbezogen

Die leistungsstärksten KI-Anwendungen werden keine eigenständigen Modelle sein, sondern Ökosysteme spezialisierter Fähigkeiten, die durch standardisierte Protokolle wie MCP verbunden sind. Für Startups bietet MCP die Möglichkeit, spezialisierte Komponenten zu entwickeln, die in diese wachsenden Ökosysteme passen. Es ist eine Gelegenheit, Ihr einzigartiges Wissen und Ihre Fähigkeiten zu nutzen und gleichzeitig von den massiven Investitionen in Grundlagenmodelle zu profitieren.

Ausblickend können wir erwarten, dass MCP zu einem grundlegenden Bestandteil der KI-Infrastruktur wird, ähnlich wie es bei HTTP für das Web der Fall war. Mit zunehmender Reife des Protokolls und steigender Akzeptanz werden wahrscheinlich ganze Marktplätze spezialisierter MCP-Server entstehen, die es KI-Systemen ermöglichen, praktisch auf jede vorstellbare Fähigkeit oder Datenquelle zuzugreifen.

Anhang

Für diejenigen, die daran interessiert sind, zu verstehen, wie MC tatsächlich unter der Oberfläche funktioniert, bietet der folgende Anhang eine technische Aufschlüsselung seiner Architektur, seines Arbeitsablaufs und seiner Implementierung.

Unter den Hauben von MCP

Ähnlich wie HTTP den Standard für den Zugriff des Webs auf externe Datenquellen und Informationen festgelegt hat, tut dies MCP für KI-Frameworks, indem es eine gemeinsame Sprache schafft, die es verschiedenen KI-Systemen ermöglicht, nahtlos zu kommunizieren. Lassen Sie uns also erkunden, wie es das macht.

MC-Architektur und -Fluss

Die Hauptarchitektur folgt einem Client-Server-Modell mit vier Schlüsselkomponenten, die zusammenarbeiten:

  • MCP-Hosts: Desktop-KI-Anwendungen wie Claude oder ChatGPT, IDEs wie cursorAI oder VSCode oder andere KI-Tools, die Zugriff auf externe Daten und Funktionen benötigen
  • MCP-Kunden: Protokoll-Handler, die in Hosts eingebettet sind und eine eins-zu-eins-Verbindung mit MCP-Servern aufrechterhalten
  • MC Servers: Leichte Programme, die spezifische Funktionalitäten über das standardisierte Protokoll freilegen
  • Datenquellen: Ihre Dateien, Datenbanken, APIs und Dienste, auf die MC-Server sicher zugreifen können

Also, da wir nun die Komponenten besprochen haben, schauen wir uns an, wie sie in einem typischen Workflow interagieren:

  1. Benutzerinteraktion: Es beginnt damit, dass ein Benutzer eine Frage stellt oder eine Anfrage in einem MC-Host, z. B. Claude Desktop, stellt.
  2. LLM-Analyse: Der LLM analysiert die Anfrage und bestimmt, ob externe Informationen oder Werkzeuge benötigt werden, um eine vollständige Antwort zu geben
  3. Tool Discovery: Der MCP-Client fragt verbundene MCP-Server ab, um herauszufinden, welche Tools verfügbar sind
  4. Werkzeugauswahl: Der LLM entscheidet basierend auf der Anfrage und den verfügbaren Möglichkeiten, welche Werkzeuge verwendet werden sollen
  5. Berechtigungsanfrage: Der Host bittet den Benutzer um Erlaubnis zur Ausführung des ausgewählten Tools, das für Transparenz und Sicherheit entscheidend ist.
  6. Tool-Ausführung: Nach Genehmigung sendet der MCP-Client die Anfrage an den entsprechenden MCP-Server, der die Operation mit seinem spezialisierten Zugriff auf Datenquellen ausführt
  7. Ergebnisverarbeitung: Der Server gibt die Ergebnisse an den Client zurück, der sie für das LLM formatiert.
  8. Antwortgenerierung: Der LLM integriert externe Informationen in eine umfassende Antwort
  9. Benutzerpräsentation: Schließlich wird die Antwort dem Endbenutzer angezeigt

Was diese Architektur so leistungsstark macht, ist, dass jeder MC-Server sich auf ein spezifisches Gebiet spezialisiert, aber ein standardisiertes Kommunikationsprotokoll verwendet. Anstatt also Integrationen für jede Plattform neu aufzubauen, können sich Entwickler nur darauf konzentrieren, Werkzeuge einmal für ihr gesamtes KI-Ökosystem zu entwickeln.

Wie man deinen ersten MCPE-Server erstellt

Jetzt schauen wir uns an, wie man mit dem MCP SDK in wenigen Zeilen Code einen einfachen MCP-Server implementieren kann.

In diesem einfachen Beispiel möchten wir die Fähigkeit von Claude Desktop erweitern, Fragen wie "Was sind einige Cafés in der Nähe des Central Parks?" von Google Maps beantworten zu können. Sie können dies leicht erweitern, um Bewertungen oder Bewertungen zu erhalten. Aber jetzt konzentrieren wir uns auf das MCP-Tool find_nearby_places, mit dem Claude diese Informationen direkt von Google Maps abrufen und die Ergebnisse auf eine konversationsfähige Weise präsentieren kann.

Wie Sie sehen können, ist der Code wirklich einfach. 1) Er wandelt die Abfrage in eine Google Maps API-Suche um und 2) gibt die Top-Ergebnisse in einem strukturierten Format zurück. So werden Informationen zur weiteren Entscheidungsfindung an das LLM zurückgegeben.

Jetzt müssen wir Claude Desktop über dieses Tool informieren, also registrieren wir es in seiner Konfigurationsdatei wie folgt.

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows: %APPDATA%\Claude\claude_desktop_config.json

Und voila, du bist fertig. Jetzt hast du gerade Claude erweitert, um Echtzeit-Standorte von Google Maps zu finden.

Haftungsausschluss:

  1. Dieser Artikel wurde aus [ wieder abgedrucktXWeiterleiten des Originaltitels 'AI's USB-C-Standard: Verständnis von MCP'. Alle Urheberrechte gehören dem Originalautor [.@Drmelseidy]. Wenn Einwände gegen diesen Nachdruck bestehen, wenden Sie sich bitte an den Gate LearnTeam, und sie werden es umgehend bearbeiten.

  2. Haftungsausschluss: Die Ansichten und Meinungen, die in diesem Artikel zum Ausdruck gebracht werden, sind ausschließlich die des Autors und stellen keine Anlageberatung dar.

  3. Übersetzungen des Artikels in andere Sprachen werden vom Gate Learn-Team durchgeführt. Sofern nicht anders angegeben, ist das Kopieren, Verteilen oder Plagiieren der übersetzten Artikel untersagt.

* لا يُقصد من المعلومات أن تكون أو أن تشكل نصيحة مالية أو أي توصية أخرى من أي نوع تقدمها منصة Gate.io أو تصادق عليها .
* لا يجوز إعادة إنتاج هذه المقالة أو نقلها أو نسخها دون الرجوع إلى منصة Gate.io. المخالفة هي انتهاك لقانون حقوق الطبع والنشر وقد تخضع لإجراءات قانونية.

Was ist MCP?

Fortgeschrittene4/24/2025, 8:49:49 AM
MCP (Model Context Protocol) ist ein aufstrebendes Feld, das in letzter Zeit die Aufmerksamkeit von Web2-Tech-Unternehmen wie Google auf sich gezogen hat. Der Artikel bietet eine eingehende Analyse der Prinzipien und Positionierung des MCP-Protokolls und erläutert, wie es großen Sprachmodellen (LLMs) Kontext durch standardisierte Kommunikation mit Anwendungen liefert. Er untersucht auch das Team hinter DARK, MtnDAO, und wie die starken Umsetzungsfähigkeiten des Gründers Edgar Pavlovsky und der zukünftige Ausblick des Teams möglicherweise den Preis des Tokens in die Höhe treiben könnten.

Weiterleitung des Originaltitels 'Künstliche Intelligenz's USB-C-Standard: Verständnis von MCP'

Während meiner Jahre bei Alliance habe ich unzählige Gründer dabei beobachtet, wie sie ihre eigenen spezialisierten Tools und Datenintegrationen in ihre KI-Agenten und Workflows eingebaut haben. Allerdings sind diese Algorithmen, Formalisierungen und einzigartigen Datensätze hinter benutzerdefinierten Integrationen versteckt, die nur wenige Menschen jemals nutzen würden.

Dies hat sich mit dem Aufkommen des Model Context Protocol rapide verändert. MCP wird als ein offenes Protokoll definiert, das standardisiert, wie Anwendungen kommunizieren und Kontext für LLMs bereitstellen. Eine Analogie, die mir sehr gefallen hat, ist, dass "MCPs für KI-Anwendungen wie USB-C für Hardware" sind; das ist standardisiert, plug-and-playfähig, vielseitig und transformierend.

Warum MC?

LLMs wie Claude, OpenAI, LLAMA usw. sind unglaublich leistungsstark, aber sie sind durch die Informationen begrenzt, auf die sie im Moment zugreifen können. Das bedeutet, dass sie in der Regel Wissensgrenzen haben, nicht unabhängig im Web surfen können und keinen direkten Zugriff auf Ihre persönlichen Dateien oder spezialisierte Tools ohne eine Form der Integration haben.

Insbesondere standen Entwickler zuvor vor drei großen Herausforderungen bei der Verbindung von LLMs mit externen Daten und Tools:

  1. Integrationskomplexität: Der Aufbau separater Integrationen für jede KI-Plattform (Claude, ChatGPT usw.) erforderte eine doppelte Anstrengung und die Pflege mehrerer Codebasen.
  2. Tool Fragmentation: Jede Tool-Funktionalität (z.B. Dateizugriff, API-Verbindungen usw.) benötigte ihren eigenen spezialisierten Integrationscode und Berechtigungsmodell
  3. Begrenzte Verteilung: Spezialisierte Werkzeuge waren auf spezifische Plattformen beschränkt, was ihre Reichweite und Auswirkungen einschränkte

MCP löst diese Probleme, indem es einen standardisierten Weg bietet, damit jede LLM sicher auf externe Tools und Datenquellen über ein gemeinsames Protokoll zugreifen kann. Nun, da wir verstehen, was MCP macht, werfen wir einen Blick darauf, was die Leute damit bauen.

Was bauen die Leute mit MCP?

Das MC-Ökosystem explodiert derzeit vor Innovationen. Hier sind einige aktuelle Beispiele, die ich auf Twitter gefunden habe, bei denen Entwickler ihre Arbeit präsentieren.

  • KI-unterstützte Storyboarderstellung: Eine MC-Integration, die es Claude ermöglicht, ChatGPT-4o zu steuern, um automatisch vollständige Storyboards im Ghibli-Stil ohne menschliches Eingreifen zu generieren.
  • ElevenLabs Sprachintegration: Ein MCP-Server, der Claude und Cursor über einfache Texteingaben Zugriff auf ihre gesamte KI-Audio-Plattform gewährt. Die Integration ist leistungsstark genug, um Sprachassistenten zu erstellen, die ausgehende Telefonanrufe tätigen können. Dies zeigt, wie MCP aktuelle KI-Tools in den Audiobereich erweitern kann.
  • Browser-Automatisierung mit Playwright: Ein MCP-Server, der es KI-Agenten ermöglicht, Webbrowser zu steuern, ohne Screenshots oder Bildmodelle zu benötigen. Dies eröffnet neue Möglichkeiten für die Webautomatisierung, indem LLMs eine direkte Steuerung über Browserinteraktionen auf standardisierte Weise erhalten.
  • Persönliche WhatsApp-Integration: Ein Server, der eine Verbindung zu persönlichen WhatsApp-Konten herstellt und es Claude ermöglicht, Nachrichten und Kontakte zu durchsuchen sowie neue Nachrichten zu senden.
  • Airbnb Suchwerkzeug: Ein Airbnb-Apartment-Suchwerkzeug, das die Einfachheit und Leistung von MC für die Erstellung praktischer Anwendungen zeigt, die mit Webdiensten interagieren.
  • Robotersteuerungssystem: Ein MCP-Controller für einen Roboter. Das Beispiel überbrückt die Kluft zwischen LLMs und physischer Hardware und zeigt das Potenzial von MCP für IoT-Anwendungen und Robotik.
  • Google Maps und lokale Suche: Durch die Verbindung von Claude mit Google Maps-Daten wird ein System erstellt, das lokale Unternehmen wie Cafés finden und empfehlen kann. Diese Erweiterung ermöglicht KI-Assistenten mit standortbasierten Diensten.
  • Blockchain-Integration: Das Lyra MCP-Projekt bringt MCP-Funktionen auf StoryProtocol und andere Web3-Plattformen. Dies ermöglicht die Interaktion mit Blockchain-Daten und Smart Contracts und eröffnet neue Möglichkeiten für dezentralisierte Anwendungen, die durch KI verbessert werden.

Was diese Beispiele besonders überzeugend macht, ist ihre Vielfalt. In der kurzen Zeit seit ihrer Einführung haben Entwickler Integrationen in den Bereichen kreative Medienproduktion, Kommunikationsplattformen, Hardwaresteuerung, Standortdienste und Blockchain-Technologie geschaffen. All diese vielfältigen Anwendungen folgen demselben standardisierten Protokoll und zeigen die Vielseitigkeit und das Potenzial von MCP, zu einem universellen Standard für die Integration von KI-Tools zu werden.

Für eine umfassende Sammlung von MC-Servern, schauen Sie sich die anoffizieller MCP-Server-Repository auf GitHubMit einem sorgfältigen Haftungsausschluss sollten Sie vorsichtig sein, bevor Sie einen MC-Server verwenden und darauf achten, was Sie ausführen und welche Berechtigungen Sie erteilen.

Versprechen vs. Hype

Bei jeder neuen Technologie lohnt es sich zu fragen: Ist MCP wirklich transformierend oder nur ein weiteres überhyptes Werkzeug, das verschwinden wird?

Nachdem ich zahlreiche Startups in diesem Bereich beobachtet habe, glaube ich, dass MCP einen echten Wendepunkt für die KI-Entwicklung darstellt. Im Gegensatz zu vielen Trends, die eine Revolution versprechen, aber inkrementelle Veränderungen bringen, ist MCP ein Produktivitätsschub, der ein grundlegendes Infrastrukturproblem löst, das das gesamte Ökosystem zurückgehalten hat.

Was es besonders wertvoll macht, ist, dass es nicht versucht, bestehende KI-Modelle zu ersetzen oder mit ihnen zu konkurrieren, sondern sie alle nützlicher macht, indem es sie mit externen Tools und den Daten, die sie benötigen, verbindet.

Das gesagt, gibt es berechtigte Bedenken hinsichtlich Sicherheit und Standardisierung. Wie bei jedem Protokoll in seinen Anfangstagen werden wir wahrscheinlich wachsende Probleme sehen, während die Community bewährte Verfahren für Audits, Berechtigungen, Authentifizierung und Serververifizierung erarbeitet. Der Entwickler muss der Funktionalität dieser MC-Server vertrauen und sollte ihnen nicht blind vertrauen, insbesondere da sie zahlreich geworden sind.Dieser Artikeldiskutiert einige der kürzlich durch Blindy aufgedeckten Schwachstellen bei MCP-Servern, die selbst bei lokalem Betrieb nicht sorgfältig geprüft wurden.

Die Zukunft von KI ist kontextbezogen

Die leistungsstärksten KI-Anwendungen werden keine eigenständigen Modelle sein, sondern Ökosysteme spezialisierter Fähigkeiten, die durch standardisierte Protokolle wie MCP verbunden sind. Für Startups bietet MCP die Möglichkeit, spezialisierte Komponenten zu entwickeln, die in diese wachsenden Ökosysteme passen. Es ist eine Gelegenheit, Ihr einzigartiges Wissen und Ihre Fähigkeiten zu nutzen und gleichzeitig von den massiven Investitionen in Grundlagenmodelle zu profitieren.

Ausblickend können wir erwarten, dass MCP zu einem grundlegenden Bestandteil der KI-Infrastruktur wird, ähnlich wie es bei HTTP für das Web der Fall war. Mit zunehmender Reife des Protokolls und steigender Akzeptanz werden wahrscheinlich ganze Marktplätze spezialisierter MCP-Server entstehen, die es KI-Systemen ermöglichen, praktisch auf jede vorstellbare Fähigkeit oder Datenquelle zuzugreifen.

Anhang

Für diejenigen, die daran interessiert sind, zu verstehen, wie MC tatsächlich unter der Oberfläche funktioniert, bietet der folgende Anhang eine technische Aufschlüsselung seiner Architektur, seines Arbeitsablaufs und seiner Implementierung.

Unter den Hauben von MCP

Ähnlich wie HTTP den Standard für den Zugriff des Webs auf externe Datenquellen und Informationen festgelegt hat, tut dies MCP für KI-Frameworks, indem es eine gemeinsame Sprache schafft, die es verschiedenen KI-Systemen ermöglicht, nahtlos zu kommunizieren. Lassen Sie uns also erkunden, wie es das macht.

MC-Architektur und -Fluss

Die Hauptarchitektur folgt einem Client-Server-Modell mit vier Schlüsselkomponenten, die zusammenarbeiten:

  • MCP-Hosts: Desktop-KI-Anwendungen wie Claude oder ChatGPT, IDEs wie cursorAI oder VSCode oder andere KI-Tools, die Zugriff auf externe Daten und Funktionen benötigen
  • MCP-Kunden: Protokoll-Handler, die in Hosts eingebettet sind und eine eins-zu-eins-Verbindung mit MCP-Servern aufrechterhalten
  • MC Servers: Leichte Programme, die spezifische Funktionalitäten über das standardisierte Protokoll freilegen
  • Datenquellen: Ihre Dateien, Datenbanken, APIs und Dienste, auf die MC-Server sicher zugreifen können

Also, da wir nun die Komponenten besprochen haben, schauen wir uns an, wie sie in einem typischen Workflow interagieren:

  1. Benutzerinteraktion: Es beginnt damit, dass ein Benutzer eine Frage stellt oder eine Anfrage in einem MC-Host, z. B. Claude Desktop, stellt.
  2. LLM-Analyse: Der LLM analysiert die Anfrage und bestimmt, ob externe Informationen oder Werkzeuge benötigt werden, um eine vollständige Antwort zu geben
  3. Tool Discovery: Der MCP-Client fragt verbundene MCP-Server ab, um herauszufinden, welche Tools verfügbar sind
  4. Werkzeugauswahl: Der LLM entscheidet basierend auf der Anfrage und den verfügbaren Möglichkeiten, welche Werkzeuge verwendet werden sollen
  5. Berechtigungsanfrage: Der Host bittet den Benutzer um Erlaubnis zur Ausführung des ausgewählten Tools, das für Transparenz und Sicherheit entscheidend ist.
  6. Tool-Ausführung: Nach Genehmigung sendet der MCP-Client die Anfrage an den entsprechenden MCP-Server, der die Operation mit seinem spezialisierten Zugriff auf Datenquellen ausführt
  7. Ergebnisverarbeitung: Der Server gibt die Ergebnisse an den Client zurück, der sie für das LLM formatiert.
  8. Antwortgenerierung: Der LLM integriert externe Informationen in eine umfassende Antwort
  9. Benutzerpräsentation: Schließlich wird die Antwort dem Endbenutzer angezeigt

Was diese Architektur so leistungsstark macht, ist, dass jeder MC-Server sich auf ein spezifisches Gebiet spezialisiert, aber ein standardisiertes Kommunikationsprotokoll verwendet. Anstatt also Integrationen für jede Plattform neu aufzubauen, können sich Entwickler nur darauf konzentrieren, Werkzeuge einmal für ihr gesamtes KI-Ökosystem zu entwickeln.

Wie man deinen ersten MCPE-Server erstellt

Jetzt schauen wir uns an, wie man mit dem MCP SDK in wenigen Zeilen Code einen einfachen MCP-Server implementieren kann.

In diesem einfachen Beispiel möchten wir die Fähigkeit von Claude Desktop erweitern, Fragen wie "Was sind einige Cafés in der Nähe des Central Parks?" von Google Maps beantworten zu können. Sie können dies leicht erweitern, um Bewertungen oder Bewertungen zu erhalten. Aber jetzt konzentrieren wir uns auf das MCP-Tool find_nearby_places, mit dem Claude diese Informationen direkt von Google Maps abrufen und die Ergebnisse auf eine konversationsfähige Weise präsentieren kann.

Wie Sie sehen können, ist der Code wirklich einfach. 1) Er wandelt die Abfrage in eine Google Maps API-Suche um und 2) gibt die Top-Ergebnisse in einem strukturierten Format zurück. So werden Informationen zur weiteren Entscheidungsfindung an das LLM zurückgegeben.

Jetzt müssen wir Claude Desktop über dieses Tool informieren, also registrieren wir es in seiner Konfigurationsdatei wie folgt.

  • macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows: %APPDATA%\Claude\claude_desktop_config.json

Und voila, du bist fertig. Jetzt hast du gerade Claude erweitert, um Echtzeit-Standorte von Google Maps zu finden.

Haftungsausschluss:

  1. Dieser Artikel wurde aus [ wieder abgedrucktXWeiterleiten des Originaltitels 'AI's USB-C-Standard: Verständnis von MCP'. Alle Urheberrechte gehören dem Originalautor [.@Drmelseidy]. Wenn Einwände gegen diesen Nachdruck bestehen, wenden Sie sich bitte an den Gate LearnTeam, und sie werden es umgehend bearbeiten.

  2. Haftungsausschluss: Die Ansichten und Meinungen, die in diesem Artikel zum Ausdruck gebracht werden, sind ausschließlich die des Autors und stellen keine Anlageberatung dar.

  3. Übersetzungen des Artikels in andere Sprachen werden vom Gate Learn-Team durchgeführt. Sofern nicht anders angegeben, ist das Kopieren, Verteilen oder Plagiieren der übersetzten Artikel untersagt.

* لا يُقصد من المعلومات أن تكون أو أن تشكل نصيحة مالية أو أي توصية أخرى من أي نوع تقدمها منصة Gate.io أو تصادق عليها .
* لا يجوز إعادة إنتاج هذه المقالة أو نقلها أو نسخها دون الرجوع إلى منصة Gate.io. المخالفة هي انتهاك لقانون حقوق الطبع والنشر وقد تخضع لإجراءات قانونية.
ابدأ التداول الآن
اشترك وتداول لتحصل على جوائز ذهبية بقيمة
100 دولار أمريكي
و
5500 دولارًا أمريكيًا
لتجربة الإدارة المالية الذهبية!