# MCP-server gÃ¶r coreAI till ett gemensamt retrieval-lager fÃ¶r AI-agenter

MCP-servern lÃ¥ter externa AI-agenter ansluta till coreAI och hÃ¤mta svar frÃ¥n samma kvalitetssÃ¤krade kunskapsbas som chattwidgeten anvÃ¤nder. Du behÃ¶ver inte duplicera innehÃ¥ll, bygga ett nytt vektorindex eller lÃ¥ta agenten skrapa webbsidor â€” din assistent blir en standardiserad retrieval-endpoint som vilken MCP-kompatibel klient som helst kan tala med.

## Vad MCP-servern exponerar

MCP-servern erbjuder ett verktyg idag: en semantisk sÃ¶kning i kunskapsbasen fÃ¶r en vald assistent. Agenten skickar en naturlig sprÃ¥kfrÃ¥ga, och servern kÃ¶r samma sÃ¶ktjÃ¤nst som ligger bakom chatten. Resultatet Ã¤r en strukturerad textkontext med de mest relevanta utdragen frÃ¥n kÃ¤llorna assistenten redan Ã¤r fylld med â€” produkter, dokument, webbinnehÃ¥ll, FAQ:er och det andra du har importerat.

Eftersom sÃ¶kningen gÃ¥r genom samma tjÃ¤nst som chatten gÃ¤ller ocksÃ¥ samma regler fÃ¶r kÃ¤llhantering och rangordning. Agenten fÃ¥r aldrig Ã¥tkomst till rÃ¥data som ligger utanfÃ¶r det assistenten Ã¤r konfigurerad fÃ¶r, och kan inte kringgÃ¥ filter eller publiceringsstatus som Ã¤r satt pÃ¥ kÃ¤llnivÃ¥.

## SÃ¥ ansluter en extern agent

MCP-endpointen ligger pÃ¥ `/mcp/assistant` i coreAI-portalen och anvÃ¤nder standard MCP-transport Ã¶ver HTTP. Klienten autentiserar med en Sanctum-token i `Authorization`-headern och anger vilken assistent den ska tala med via `X-Assistant-Id` â€” assistentens publika ID. Efter handshake kan agenten anropa sÃ¶kverktyget med en sÃ¶kstrÃ¤ng och fÃ¥ tillbaka formaterad kontext redo att skickas in i en LLM-prompt.

Vilken MCP-klient som helst kan ansluta sÃ¥ hÃ¤r: Claude Desktop, Cursor, custom-byggda dev-agenter, interna orkestreringsverktyg eller en LangChain- eller LlamaIndex-baserad pipeline. Du behÃ¶ver ingen coreAI-specifik SDK; protokollet Ã¤r Ã¶ppet och leverantÃ¶rsneutralt.

Den snabbaste vÃ¤gen in Ã¤r att kopiera konfigurationen direkt frÃ¥n "Kod"-fliken i coreAI-portalen och klistra in den i MCP-klientens config â€” endpoint, token och assistent-ID Ã¤r redan satta korrekt, och klienten plockar upp servern vid nÃ¤sta uppstart.

## Ã
tkomst avgrÃ¤nsas per assistent, kÃ¤lla och klient

Ã
tkomstmodellen Ã¤r trelagrad. Varje token tillhÃ¶r en anvÃ¤ndare eller systemkonto, varje MCP-anrop pekar pÃ¥ en bestÃ¤md assistent, och varje assistent Ã¤r konfigurerad mot en explicit uppsÃ¤ttning kÃ¤llor. Det betyder att en intern utvecklaragent kan fÃ¥ Ã¥tkomst till hela produktkatalogen, samtidigt som en kundspecifik integration bara ser den enda kunskapsbas som Ã¤r byggd fÃ¶r kunden.

Assistenter som Ã¤r skyddade bakom en widget-callback exponeras inte via MCP. Det fÃ¶rhindrar att en agent kan kringgÃ¥ autentiseringskontroller som widgeten upprÃ¤tthÃ¥ller fÃ¶r slutanvÃ¤ndare. FÃ¶r de flesta B2B-uppsÃ¤ttningar Ã¤r det inte en begrÃ¤nsning â€” de allra flesta assistenter Ã¤r tillgÃ¤ngliga direkt fÃ¶r autentiserade tokens, och Ã¥tkomsten styrs pÃ¥ vanligt sÃ¤tt genom vilka assistenter anvÃ¤ndaren har rÃ¤tt att se.

## NÃ¤r MCP Ã¤r rÃ¤tt val framfÃ¶r chatt-API:et

VÃ¤lj MCP nÃ¤r en befintlig AI-agent redan har en samtalsloop och bara behÃ¶ver rÃ¤tt kontext. Agenten tar hand om frÃ¥geformulering, prompt-strategi och anvÃ¤ndarinteraktion â€” coreAI bidrar uteslutande med precisa svar frÃ¥n organisationens egna data. Det passar fÃ¶r IDE-assistenter som ska hjÃ¤lpa utvecklare med interna API:er, fÃ¶r kundtjÃ¤nstagenter som hÃ¤mtar produktinformation mitt i ett samtal, eller fÃ¶r autonoma arbetsflÃ¶den som tar beslut baserat pÃ¥ fÃ¤rska dokument.

VÃ¤lj chatt-API:et nÃ¤r du sjÃ¤lv vill bygga hela samtalsupplevelsen â€” eget UI, egen sessionshantering, egen modell- och prompt-konfiguration. VÃ¤lj sÃ¶k-API:et nÃ¤r du bara behÃ¶ver trÃ¤ffar och facetter utan ett genererat svar. MCP Ã¤r rÃ¤tt lager nÃ¤r den genererande komponenten redan finns pÃ¥ utsidan, och coreAI ska vara retrieval-motorn bakom.

## Kombinera MCP, chatt och sÃ¶kning i samma produkt

En produkt kan behÃ¶va flera integrationsytor samtidigt. En SaaS-leverantÃ¶r kan erbjuda chattwidgeten till slutanvÃ¤ndare, bygga in sÃ¶k-API:et i sin admin-panel och samtidigt lÃ¥ta egna AI-agenter ansluta via MCP fÃ¶r automatisering â€” allt drivet av samma assistent och samma kÃ¤lluppsÃ¤ttning. En Ã¤ndring i kunskapsbasen slÃ¥r igenom pÃ¥ alla tre ytor i samma Ã¶gonblick, utan att du behÃ¶ver underhÃ¥lla tre separata datasynkroniseringar.

Det Ã¤r styrkan i en delad retrieval-arkitektur: en sanning fÃ¶r innehÃ¥llet, mÃ¥nga kanaler ut. MCP Ã¤r bara den senaste av dessa kanaler â€” och den som lÃ¥ter resten av AI-ekosystemet tala med coreAI pÃ¥ sina egna villkor.