Gold Standard Apology MCP
Provides guidelines for writing proper apologies based on the situation, relationship, and severity. Returns structured prompts that help LLMs generate sincere and appropriate apology letters in Korean.
README
Gold Standard Apology MCP
정석 사과문 작성을 도와주는 MCP(Model Context Protocol) 서버입니다.
개요
사용자가 사과문을 작성해야 할 상황에서, 상황 정보를 입력하면 정석적인 사과문 작성을 위한 가이드라인을 system prompt 형태로 반환합니다. LLM 서비스가 이 가이드라인을 참고하여 효과적인 사과문을 작성할 수 있도록 도와줍니다.
동작 방식
sequenceDiagram
participant User as 사용자
participant LLM as LLM 서비스
participant MCP as Gold Standard Apology MCP
User->>LLM: "여자친구한테 약속에 늦어서<br/>사과문 써줘"
LLM->>MCP: get_apology_system_prompt(<br/>situation: "약속에 1시간 늦음",<br/>relationship: "연인",<br/>severity: "보통")
MCP-->>LLM: 사과문 작성 가이드라인 반환<br/>- 들어가야 할 내용 7가지<br/>- 피해야 할 표현 7가지<br/>- 관계별 어조 가이드<br/>- 예시
LLM->>LLM: 가이드라인을 참고하여<br/>사과문 작성
LLM-->>User: 정석에 맞는 사과문 전달
제공하는 Tool
get_apology_system_prompt
상황에 맞는 사과문 작성 가이드라인을 생성합니다.
파라미터:
| 파라미터 | 타입 | 필수 | 설명 |
|---|---|---|---|
situation |
string | O | 사과해야 하는 상황에 대한 설명 |
relationship |
string | O | 사과 대상과의 관계 (연인, 친구, 부모님, 직장 상사, 고객 등) |
severity |
string | X | 상황의 심각도 (경미, 보통, 심각). 기본값: "보통" |
반환값:
{
"system_prompt": "사과문 작성 가이드라인...",
"usage_guide": "위 가이드라인을 참고하여 상황에 맞는 진정성 있는 사과문을 작성해 주세요."
}
Recommended Servers
playwright-mcp
A Model Context Protocol server that enables LLMs to interact with web pages through structured accessibility snapshots without requiring vision models or screenshots.
Magic Component Platform (MCP)
An AI-powered tool that generates modern UI components from natural language descriptions, integrating with popular IDEs to streamline UI development workflow.
Audiense Insights MCP Server
Enables interaction with Audiense Insights accounts via the Model Context Protocol, facilitating the extraction and analysis of marketing insights and audience data including demographics, behavior, and influencer engagement.
VeyraX MCP
Single MCP tool to connect all your favorite tools: Gmail, Calendar and 40 more.
Kagi MCP Server
An MCP server that integrates Kagi search capabilities with Claude AI, enabling Claude to perform real-time web searches when answering questions that require up-to-date information.
graphlit-mcp-server
The Model Context Protocol (MCP) Server enables integration between MCP clients and the Graphlit service. Ingest anything from Slack to Gmail to podcast feeds, in addition to web crawling, into a Graphlit project - and then retrieve relevant contents from the MCP client.
E2B
Using MCP to run code via e2b.
Neon Database
MCP server for interacting with Neon Management API and databases
Exa Search
A Model Context Protocol (MCP) server lets AI assistants like Claude use the Exa AI Search API for web searches. This setup allows AI models to get real-time web information in a safe and controlled way.
Qdrant Server
This repository is an example of how to create a MCP server for Qdrant, a vector search engine.