Your personal knowledge management platform for AI conversations. Organize, share, and discover insights like never before.
Create articles instantly, even without an account
3 days ago
# [2508.20722] rStar2-Agent: Agentic Reasoning Technical Report **URL:** https://www.arxiv.org/abs/2508.20722 **Captured:** 2025/9/6 17:39:22 --- Computer Science > Computation and Language [Submitted on 28 Aug 2025] rStar2-Agent: Agentic Reasoning Technical Report Ning Shang, Yifei Liu, Yi Zhu, Li Lyna Zhang, Weijiang Xu, Xinyu Guan, Buze Zhang, Bingcheng Dong, Xudong Zhou, Bowen Zhang, Ying Xin, Ziming Miao, Scarlett Li, Fan Yang, Mao Yang We introduce rStar2-Agent, a 14B math reasoning model trained with agentic reinforcement learning to achieve frontier-level performance. Beyond current long CoT, the model demonstrates advanced cognitive behaviors, such as thinking carefully before using Python coding tools and reflecting on code execution feedback to autonomously explore, verify, and refine intermediate steps in complex problem-solving. This capability is enabled through three key innovations that makes agentic RL effective at scale: (i) an efficient RL infrastructure with a reliable Python code environment that supports high-throughput execution and mitigates the high rollout costs, enabling training on limited GPU resources (64 MI300X GPUs); (ii) GRPO-RoC, an agentic RL algorithm with a Resample-on-Correct rollout strategy that addresses the inherent environment noises from coding tools, allowing the model to reason more effectively in a code environment; (iii) An efficient agent training recipe that starts with non-reasoning SFT and progresses through multi-RL stages, yielding advanced cognitive abilities with minimal compute cost. To this end, rStar2-Agent boosts a pre-trained 14B model to state of the art in only 510 RL steps within one week, achieving average pass@1 scores of 80.6% on AIME24 and 69.8% on AIME25, surpassing DeepSeek-R1 (671B) with significantly shorter responses. Beyond mathematics, rStar2-Agent-14B also demonstrates strong generalization to alignment, scientific reasoning, and agentic tool-use tasks. Code and training recipes are available at this https URL. Subjects: Computation and Language (cs.CL) Cite as: arXiv:2508.20722 [cs.CL] (or arXiv:2508.20722v1 [cs.CL] for this version) https://doi.org/10.48550/arXiv.2508.20722 Focus to learn more Submission history From: Li Lyna Zhang [view email] [v1] Thu, 28 Aug 2025 12:45:25 UTC (1,217 KB) Access Paper: View PDF HTML (experimental) TeX Source Other Formats view license Current browse context: cs.CL < prev | next > new | recent | 2025-08 Change to browse by: cs References & Citations NASA ADS Google Scholar Semantic Scholar Export BibTeX Citation Bookmark Bibliographic Tools Bibliographic and Citation Tools Bibliographic Explorer Toggle Bibliographic Explorer (What is the Explorer?) Connected Papers Toggle Connected Papers (What is Connected Papers?) Litmaps Toggle Litmaps (What is Litmaps?) scite.ai Toggle scite Smart Citations (What are Smart Citations?) Code, Data, Media Demos Related Papers About arXivLabs Which authors of this paper are endorsers? | Disable MathJax (What is MathJax?)
Read more →7 days ago
# Daytona Sandbox:開発環境の新たな可能性 ## Daytona Sandboxとは Daytona Sandboxは、開発者がクラウド上で瞬時に開発環境を構築・共有できる革新的なプラットフォームです。従来のローカル開発環境の制約を取り払い、どこからでもアクセス可能な統一された開発体験を提供します。 ## 主な特徴 ### 1. 瞬時の環境構築 Gitリポジトリから数秒で完全な開発環境を立ち上げることができます。依存関係の解決やツールのセットアップは自動化されており、「動かない」というストレスから解放されます。 ### 2. チーム間での共有 作成した環境をURLで簡単に共有できるため、コードレビューやペアプログラミング、トラブルシューティングが格段に効率化されます。 ### 3. 一貫性の保証 開発者全員が同じ環境で作業するため、「私の環境では動く」問題が根本的に解決されます。 ## 開発ワークフローへの影響 Daytona Sandboxは特に以下のシーンで威力を発揮します: - **新しいプロジェクトの立ち上げ**:環境構築の時間を大幅短縮 - **オンボーディング**:新メンバーが即座に開発に参加可能 - **リモート開発**:デバイスに依存しない開発体験 ## まとめ Daytona Sandboxは開発環境の民主化を推し進める重要なツールです。クラウドネイティブな開発体験により、私たちはコードを書くことに集中し、環境の問題に悩まされることなく、より創造的な開発活動に時間を投資できるようになります。 現代の開発チームにとって、Daytona Sandboxのような標準化されたクラウド開発環境は、もはや選択肢ではなく必需品と言えるでしょう。
Read more →10 days ago
step-by-step E2B example in Python that shows stateful execution, installing packages, uploading a file, and doing a quick SQLite query—all inside a sandbox. --- ## 0) Install & set your key ```bash pip install e2b-code-interpreter python-dotenv export E2B_API_KEY="e2b_***" ``` E2B’s Python package is `e2b-code-interpreter`, and the SDK reads your `E2B_API_KEY` from env. ([PyPI][1]) --- ## 1) Minimal stateful sandbox script ```python # e2b_step_by_step.py import os from e2b_code_interpreter import Sandbox def main(): # Spins up an isolated VM ("sandbox"); auto-shuts down when the block exits with Sandbox() as sbx: # --- A) Stateful Python: variables persist across calls --- sbx.run_code("x = 41") out = sbx.run_code("x += 1; x") # reuses x print("x =", out.text) # -> 42 # --- B) Shell: install a package inside the sandbox --- sbx.commands.run("pip install --quiet pandas") # ok to pip-install at runtime # --- C) Upload a CSV into the sandbox filesystem --- csv = "name,age\nTaro,30\nHanako,28\n" sbx.files.write("/home/user/people.csv", csv) # --- D) Analyze the CSV in Python (pandas) --- out = sbx.run_code(r''' import pandas as pd df = pd.read_csv("/home/user/people.csv") df["age"].mean() ''') print("mean age:", out.text) # --- E) Quick SQLite session (persists objects across cells) --- sbx.run_code(r''' import sqlite3 conn = sqlite3.connect("/home/user/demo.db") cur = conn.cursor() cur.execute("CREATE TABLE IF NOT EXISTS t(a INT)") cur.executemany("INSERT INTO t(a) VALUES (?)", [(1,), (2,), (3,)]) conn.commit() ''') out = sbx.run_code(r''' cur.execute("SELECT sum(a) FROM t") cur.fetchone()[0] ''') print("sum =", out.text) # --- F) Peek at files (via Python, no shell needed) --- out = sbx.run_code('import os; print(os.listdir("/home/user"))') print("files in /home/user:\n", "".join(out.logs.stdout)) if __name__ == "__main__": main() ``` **Why this works / what to know** * `Sandbox()` starts an isolated cloud VM where you can **run code repeatedly and reuse variables** (`run_code` shares state across calls). The returned `Execution` has `.text` (last expression) and `.logs.stdout` for prints. ([e2b.dev][2]) * You can **run shell commands** like `pip install …` via `sandbox.commands.run(...)`. ([Hugging Face][3]) * You can **upload files** into the sandbox with `sandbox.files.write(path, data)` (string/bytes/IO). ([e2b.dev][4]) * By default, a sandbox has a short idle timeout (\~5 minutes) unless you keep using it. ([e2b.dev][5]) --- ## 2) (Optional) Pause & resume the same sandbox later If you want the *exact* process memory and filesystem to persist (even running kernels), E2B has **persistence** (public beta): ```python from e2b_code_interpreter import Sandbox sbx = Sandbox() # create sbx.beta_pause() # save full state (ID: sbx.sandbox_id) same = Sandbox.connect(sbx.sandbox_id) # resume later and continue ``` This preserves files **and memory** (variables, processes) between sessions. ([e2b.dev][6]) --- ## 3) Useful docs you’ll likely reference * **Quickstart** (API key, first sandbox). ([e2b.dev][7]) * **Python SDK: `Sandbox.run_code`** (stateful cells; result fields). ([e2b.dev][2]) * **Filesystem read/write** (Python `files.write`, `files.read`, etc.). ([e2b.dev][4]) * **Install custom packages / runtime installs** (`pip install` in sandbox). ([e2b.dev][8]) * **Commands API (shell in sandbox)**. ([e2b.dev][9]) * **Cookbook examples** (more end-to-end Python demos). ([GitHub][10]) If you want, I can tailor this to your exact use case (e.g., connecting to Postgres/MySQL from inside the sandbox, or wiring this into your LLM/tool-calling flow). [1]: https://pypi.org/project/e2b-code-interpreter/?utm_source=chatgpt.com "e2b-code-interpreter" [2]: https://e2b.dev/docs/sdk-reference/code-interpreter-python-sdk/v1.2.1/sandbox "E2B - Code Interpreting for AI apps" [3]: https://huggingface.co/docs/smolagents/en/tutorials/secure_code_execution?utm_source=chatgpt.com "Secure code execution" [4]: https://e2b.dev/docs/sdk-reference/python-sdk/v1.5.2/sandbox_sync?utm_source=chatgpt.com "E2B - Code Interpreting for AI apps" [5]: https://e2b.dev/docs/quickstart "E2B - Code Interpreting for AI apps" [6]: https://e2b.dev/docs/sandbox/persistence "E2B - Code Interpreting for AI apps" [7]: https://e2b.dev/docs/quickstart?utm_source=chatgpt.com "Running your first Sandbox" [8]: https://e2b.dev/docs/quickstart/install-custom-packages?utm_source=chatgpt.com "Install custom packages" [9]: https://e2b.dev/docs/commands?utm_source=chatgpt.com "Running commands in sandbox" [10]: https://github.com/e2b-dev/e2b-cookbook?utm_source=chatgpt.com "e2b-dev/e2b-cookbook: Examples of using E2B"
Read more →14 days ago
Agentic workflow patterns integrate modular software agents with structured large language model (LLM) workflows, enabling autonomous reasoning and action. While inspired by traditional serverless and event-driven architectures, these patterns shift core logic from static code to LLM-augmented agents, providing enhanced adaptability and contextual decision-making. This evolution transforms conventional cloud architectures from deterministic systems to ones capable of dynamic interpretation and intelligent augmentation, while maintaining fundamental principles of scalability and responsiveness. ###### In this section - [From event-driven to cognition-augmented systems](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-patterns/from-event-driven-to-cognition-augmented-systems.html) - [Prompt chaining saga patterns](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-patterns/prompt-chaining-saga-patterns.html) - [Routing dynamic dispatch patterns](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-patterns/routing-dynamic-dispatch-patterns.html) - [Parallelization and scatter-gather patterns](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-patterns/parallelization-and-scatter-gather-patterns.html) - [Saga orchestration patterns](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-patterns/saga-orchestration-patterns.html) - [Evaluator reflect-refine loop patterns](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-patterns/evaluator-reflect-refine-loop-patterns.html) - [Designing agentic workflows on AWS](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-patterns/designing-agentic-workflows-on-aws.html) - [Conclusion](https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-patterns/conclusion.html)
Read more →14 days ago
# What's New at AWS - Cloud Innovation & News **URL:** https://aws.amazon.com/jp/about-aws/whats-new/2025/08/amazon-p5-single-gpu-instances-now-available/ **Captured:** 2025/8/26 15:02:09 --- Amazon EC2 Single GPU P5 instances are now generally available Posted on: Aug 12, 2025 Today, AWS announces new Amazon Elastic Compute Cloud (Amazon EC2) P5 instance size with one NVIDIA H100 GPU that allows businesses to right-size their machine learning (ML) and high-performance computing (HPC) resources with cost-effectiveness. The new instance size enables customers to start small and scale in granular increments, providing more flexible control over infrastructure costs. Customers developing small to medium Large Language Models (LLMs) such as chatbots or specialized language translation tools can now run inference tasks more economically. Customers can also use these instances to deploy HPC applications for pharmaceutical discovery, fluid flow analysis, and financial modeling without committing to expensive, large-scale GPU deployments. P5.4xlarge instances are now available through Amazon EC2 Capacity Blocks for ML in the following AWS Regions: US East (North Virginia, Ohio), US West (Oregon), Europe (London), Asia Pacific (Mumbai, Sydney, Tokyo) and South America (Sao Paulo) regions. These instances can be purchased On-Demand, Spot or through Savings Plans in Europe (London), Asia Pacific (Mumbai, Jakarta, Tokyo), and South America (Sao Paulo) regions. To learn more about P5.4xlarge instances, visit Amazon EC2 P5 instances.
Read more →14 days ago
## MCPサーバーとは?かんたん説明 **MCP(Model Context Protocol)サーバー**は、AI(とくに大きな言葉を扱うモデル:LLM)が、人間の代わりに外部の情報やツールとやりとりできる「通り道」をつくる仕組みです。たとえるなら「AI用のUSB-Cケーブル」です。 これはAnthropic(アンソロピック)という会社が2024年11月に公開した、誰でも使える(オープンな)仕組みです。([saketnkzw.com][1]) --- ## MCPの仕組み:関係者の役割 MCPは、以下3つの役割で成り立っています: 1. **ホスト (Host)** → AIアシスタントそのもの(例:Claude Desktop、IDEのAI機能) → ユーザーの命令を受けて、どの情報が必要か判断します。([Qiita][2]) 2. **クライアント (Client)** → ホストとサーバーをつなぐ“橋渡し役”。 → ホスト側にあって、適切な指示をMCPサーバーに送ります。([Qiita][2], [ウィキペディア][3]) 3. **サーバー (Server)** → 実際の情報やツールを持っていて、それをクライアント経由でAIに提供する“情報の倉庫”。 → 必要なデータや機能(たとえば天気情報やファイル読み込み)を返します。([Qiita][4], [ウィキペディア][5], [ウィキペディア][3]) つまり、ホスト → クライアント → サーバー → クライアント → ホストという流れで、データのやりとりをする構成です。 --- ## なぜ注目されているの?メリットまとめ * **共通ルールでつながる** → どのAIとも、どのデータとも同じ形式でやりとりできるようになり、作る側も使う側もラクになります。([ウィキペディア][5], [luenci.com][6], [ubsecure.jp][7]) * **拡張性が高い** → 新しいツールや機能を追加するのが簡単。道具を増やす感覚で、AIの能力を伸ばせます。([ubsecure.jp][7], [クラスメソッド発「やってみた」系技術メディア | DevelopersIO][8], [ウィキペディア][5]) * \*\*大手サービスでも採用中 \*\* → OpenAIやGoogle DeepMind、Microsoftなどの先進企業も採用しており、信頼性や注目度が高いです。([ウィキペディア][5]) --- ##  イメージで視覚化 > まるで「AI用のUSB‑Cケーブル」のような仕組み。 > USB‑Cで機器とつなげば、何でもデータがやりとりできるように、 > MCPを使えばAIが遠くのツールや情報にアクセスできるようになります。([GitHub][9]) --- ## 簡単な使い方の流れ(例:天気情報を取得するMCPサーバー構築) たとえばこんな使い方があります: 1. 天気を知らせるための「get\_forecast」や「get\_alerts」などの機能を持つMCPサーバーを用意する。([Model Context Protocol][10]) 2. クライアント(例:Claude Desktopなど)にそのサーバーを登録。 3. ユーザーが「今日の天気は?」と聞くと、AIがMCPを通じて情報を取得して答えてくれる。 --- ## 入門ポイントまとめ | 用語 | 説明(一言) | | ------ | ------------------ | | MCP | AIと情報をつなぐ共通ルール | | Host | ユーザーの命令を扱うAI本体 | | Client | HostとServerをつなぐ橋渡し | | Server | 情報や機能を持つ倉庫 | --- いいね!じゃあ「手を動かせる・非エンジニア向け」の超やさしい実例つきガイドいきます。コードは“貼って動かす”最短ルートにして、必要なところだけ軽く説明します。 --- # MCPサーバーを作って動かす:いちばんカンタンな道筋 ## 0) MCPって何をする? * AI(Claudeなど)から**安全に外部ツールやデータに触るための共通ルール**。 * 仕組みの全体像と「Claude Desktopにサーバーをつなぐ手順」は公式クイックスタートが非常に分かりやすいです。 ([Model Context Protocol][1]) --- ## 1) どのやり方を選ぶ? 初心者にやさしい順に3パターンあります。 1. **既製サーバーを入れる(最短)** 例:ファイル閲覧用の「Filesystemサーバー」をClaude Desktopに追加。数分で“体験”できます。 ([Model Context Protocol][2]) 2. **テンプレから自作(かんたん)** TypeScript(Node.js)やPythonの**雛形リポジトリ**を使うと、コピペ中心で自作できます。 ([GitHub][3]) 3. **クラウドに公開(応用)** 作ったサーバーを**Vercel**に配置すれば、URLでつないでどこからでも使えます。認証・スケールも面倒見てくれます。 ([Vercel][4]) > まずは①→②→③と段階を踏むのがおすすめです。 --- ## 2) まずは体験:既製サーバーをClaudeに入れてみる(数分) Claude Desktop を開き、\*\*Settings →(Developer または Extensions)**からMCPサーバーを追加します。公式の「ローカルMCPサーバー接続ガイド」が画面つきで丁寧です。最近は**ワンクリックの“Desktop Extension(.dxt)”\*\*にも対応してきています。 ([Model Context Protocol][2], [Anthropic Help Center][5], [Reddit][6]) --- ## 3) 実例①:超最小の“お天気”サーバー(Node.js/TypeScript) > 公式チュートリアルの流れを、初心者向けに**最短コード**に絞ったものです。 ([Model Context Protocol][1]) ### 準備 ```bash # 任意の空フォルダで npm init -y npm i @modelcontextprotocol/sdk fastmcp typescript ts-node npx tsc --init ``` ### サーバーコード(`server.ts`) ```ts import { Server } from "fastmcp"; // 1) サーバー作成(stdioで動かす) const app = new Server({ name: "weather-demo", version: "1.0.0" }); // 2) "get_weather" という道具(ツール)を1個だけ用意 app.tool("get_weather", { description: "都市名を入れるとダミーの天気を返すよ", inputSchema: { type: "object", properties: { city: { type: "string" } }, required: ["city"] }, execute: async ({ city }) => { // 本当はAPIを呼ぶが、まずは固定値で体験する return { summary: `${city} は 25℃ / 晴れ(デモ値)` }; }, }); // 3) 起動(stdio) app.startStdio(); ``` ### 実行 ```bash npx ts-node server.ts ``` --- ## 4) Claude Desktop とつなぐ(ローカル接続) Claude Desktop の設定で\*\*「カスタム(ローカル)MCPサーバー」**として今のプロセス(stdio)を登録します。手順は公式の「ローカルMCPをつなぐ」ドキュメントが確実です。登録後にClaudeを再起動すると、チャット画面のツール一覧に**get\_weather\*\*が出ます。 ([Model Context Protocol][2]) > もしURL経由の**リモート接続**をしたい場合は、**Custom Connector**からURLを追加する方式が用意されています。 ([Model Context Protocol][7]) --- ## 5) 実例②:同じことをPythonで(お好みで) Alex Mercedさんの**Pythonによる基本MCPサーバー**解説が読みやすいです。以下は「最低限の一個ツール」パターン。 ([Medium][8]) ### 準備 ```bash pip install fastmcp ``` ### サーバーコード(`server.py`) ```python from fastmcp import Server app = Server(name="weather-demo", version="1.0.0") @app.tool() def get_weather(city: str) -> dict: """都市名を受け取り、ダミーの天気を返す""" return {"summary": f"{city} は 25℃ / 晴れ(デモ値)"} if __name__ == "__main__": app.start_stdio() ``` ### 実行 ```bash python server.py ``` > あとは**手順4**と同様にClaude Desktopへ登録して使えます。 ([Model Context Protocol][2]) --- ## 6) 便利なテンプレ&参考集 * **テンプレ(TypeScript / FastMCP入り)**: `mcpdotdirect/template-mcp-server` — stdio/HTTP両対応、ツールやリソース、プロンプトの雛形まで入っています。最短で“自分用サーバー”に化けます。 ([GitHub][3]) * **公式の参照実装とサーバーギャラリー**: いろんな用途のサーバーがまとまっており、「こう作るのか」のカタログとして便利。 ([GitHub][9]) --- ## 7) クラウド公開(応用):Vercelにデプロイ → URLで接続 ローカルで動かせたら、次は**Vercel**に置いてURL接続してみましょう。**Functions**でスケールし、**OAuth/認可**もガイドあり。Claude側は\*\*Settings→Integrations(またはDeveloper)\*\*からURLを登録するだけ。 ([Vercel][4], [weavely.ai][10]) --- ## 8) 困ったときのヒント * **Claude Desktop の再起動**で拾われることが多い(ツールが見えない時)。 ([MESA][11]) * Windowsでの再起動や設定場所のコツをまとめたコミュニティTipsも参考に。 ([YouTube][12], [Reddit][13]) --- ## 9) 何ができるようになる? MCPは\*\*「AIに手足を生やす」\*\*ようなもの。ファイル操作、社内API、データベース、SaaSなど、**一度“サーバー”として生やせば、Claudeなど複数のクライアントから共通ルールで使い回せる**のが最大の効用です。背景や事例の概観はこちらが読みやすいです。 ([The Verge][14]) --- # まとめ(今日やるアクション) 1. まずは**既製サーバー**をClaudeに入れて体験(1日目) ([Model Context Protocol][2]) 2. 次に**最小サーバー**を自作(TypeScriptかPythonのどちらかでOK) ([Model Context Protocol][1], [Medium][8]) 3. 気に入ったら**テンプレ**で整理し、**Vercel**に公開してURL接続(2〜3日目) ([GitHub][3], [Vercel][4]) --- 必要なら、あなたのユースケース(社内データ参照、RAG呼び出し、業務システム連携、など)に合わせて**具体的なツール設計**まで一気に作ります。やりたいことを教えてくれれば、上の最小サンプルをそのまま“本番の骨格”に育てます。 [1]: https://modelcontextprotocol.io/quickstart/server?utm_source=chatgpt.com "Build an MCP Server - Model Context Protocol" [2]: https://modelcontextprotocol.io/quickstart/user?utm_source=chatgpt.com "Connect to Local MCP Servers - Model Context Protocol" [3]: https://github.com/mcpdotdirect/template-mcp-server?utm_source=chatgpt.com "mcpdotdirect/template-mcp-server" [4]: https://vercel.com/docs/mcp/deploy-mcp-servers-to-vercel?utm_source=chatgpt.com "Deploy MCP servers to Vercel" [5]: https://support.anthropic.com/en/articles/10949351-getting-started-with-local-mcp-servers-on-claude-desktop?utm_source=chatgpt.com "Getting started with Local MCP Servers on Claude Desktop" [6]: https://www.reddit.com/r/ClaudeAI/comments/1ll88ay/local_mcp_servers_can_now_be_installed_with_one/?utm_source=chatgpt.com "Local MCP servers can now be installed with one click on Claude ..." [7]: https://modelcontextprotocol.io/docs/tutorials/use-remote-mcp-server?utm_source=chatgpt.com "Connect to Remote MCP Servers - Model Context Protocol" [8]: https://medium.com/data-engineering-with-dremio/building-a-basic-mcp-server-with-python-4c34c41031ed?utm_source=chatgpt.com "Building a Basic MCP Server with Python | by Alex Merced" [9]: https://github.com/modelcontextprotocol/servers?utm_source=chatgpt.com "modelcontextprotocol/servers: Model Context Protocol ..." [10]: https://www.weavely.ai/blog/claude-mcp?utm_source=chatgpt.com "How to add MCP servers to Claude (free and paid) - Weavely" [11]: https://www.getmesa.com/blog/how-to-connect-mcp-server-claude/?utm_source=chatgpt.com "Connect Claude to MCP Servers for Better AI Capabilities" [12]: https://www.youtube.com/watch?v=A151Nk_nN_U&utm_source=chatgpt.com "Easy connect Claude AI desktop to MCP servers (For Windows)" [13]: https://www.reddit.com/r/ClaudeAI/comments/1jf4hnt/setting_up_mcp_servers_in_claude_code_a_tech/?utm_source=chatgpt.com "Setting Up MCP Servers in Claude Code: A Tech Ritual for ... - Reddit" [14]: https://www.theverge.com/2024/11/25/24305774/anthropic-model-context-protocol-data-sources?utm_source=chatgpt.com "Anthropic launches tool to connect AI systems directly to datasets" [1]: https://saketnkzw.com/posts/mcp-get-started?utm_source=chatgpt.com "clineと無料で作るMCPサーバー入門 | tnkzw.sake's blog" [2]: https://qiita.com/sigma_devsecops/items/7c40266160262ecd5ed1?utm_source=chatgpt.com "【MCP入門】LLMとツールをつなぐ仕組みを理解する" [3]: https://zh.wikipedia.org/wiki/%E6%A8%A1%E5%9E%8B%E4%B8%8A%E4%B8%8B%E6%96%87%E5%8D%8F%E8%AE%AE?utm_source=chatgpt.com "模型上下文协议" [4]: https://qiita.com/takashiuesaka/items/49559b830366255d1216?utm_source=chatgpt.com "[MCP再入門]「MCPはAIアプリにとってのUSB-C」がしっくりこ ..." [5]: https://en.wikipedia.org/wiki/Model_Context_Protocol?utm_source=chatgpt.com "Model Context Protocol" [6]: https://luenci.com/en/posts/mcp%E5%85%A5%E9%97%A8%E6%A6%82%E5%BF%B5%E7%AF%87/?utm_source=chatgpt.com "MCP 入门(概念篇) - Luenci" [7]: https://www.ubsecure.jp/blog/20250612?utm_source=chatgpt.com "MCPでLLMがネットサーフィン!?~DifyとFetch Serverで作る ..." [8]: https://dev.classmethod.jp/articles/mcp-server-on-vercel/?utm_source=chatgpt.com "Vercelで始めるMCPサーバー構築入門 - DevelopersIO" [9]: https://github.com/liaokongVFX/MCP-Chinese-Getting-Started-Guide?utm_source=chatgpt.com "Model Context Protocol(MCP) 编程极速入门" [10]: https://modelcontextprotocol.io/quickstart/server?utm_source=chatgpt.com "Build an MCP Server"
Read more →Join GenScrap today and transform how you manage your digital insights.
Create Your Account