Tutoriels
Guides étape par étape pour commencer avec gomcptest
Les tutoriels sont des guides d’apprentissage qui vous guident à travers une série d’étapes pour compléter un projet. Ils se concentrent sur l’apprentissage par la pratique et aident les débutants à se familiariser avec le système.
Ces tutoriels vous aideront à vous familiariser avec gomcptest et ses composants.
1 - Démarrage avec gomcptest
Démarrez rapidement avec gomcptest grâce à ce guide pour débutants
Ce tutoriel vous guidera à travers la configuration du système gomcptest et la mise en place de l’authentification Google Cloud pour le projet.
Prérequis
- Go >= 1.21 installé sur votre système
- Compte Google Cloud avec accès à l’API Vertex AI
- Google Cloud CLI installé
- Familiarité de base avec le terminal/ligne de commande
Configuration de l’Authentification Google Cloud
Avant d’utiliser gomcptest avec les services de Google Cloud Platform comme Vertex AI, vous devez configurer votre authentification.
1. Initialiser le CLI Google Cloud
Si vous n’avez pas encore configuré le CLI Google Cloud, exécutez :
Cette commande interactive vous guidera à travers :
- La connexion à votre compte Google
- La sélection d’un projet Google Cloud
- La définition des configurations par défaut
2. Se connecter à Google Cloud
Authentifiez votre CLI gcloud avec votre compte Google :
Cela ouvrira une fenêtre de navigateur où vous pourrez vous connecter à votre compte Google.
Les Identifiants par Défaut de l’Application sont utilisés par les bibliothèques clientes pour trouver automatiquement les identifiants lors de la connexion aux services Google Cloud :
gcloud auth application-default login
Cette commande va :
- Ouvrir une fenêtre de navigateur pour l’authentification
- Stocker vos identifiants localement (généralement dans
~/.config/gcloud/application_default_credentials.json
) - Configurer votre environnement pour utiliser ces identifiants lors de l’accès aux API Google Cloud
Ces identifiants seront utilisés par gomcptest lors de l’interaction avec les services Google Cloud.
Configuration du Projet
Cloner le dépôt :
git clone https://github.com/owulveryck/gomcptest.git
cd gomcptest
Construire les Outils : Compiler tous les outils compatibles MCP
Choisir l’Interface :
Prochaines Étapes
Après avoir terminé la configuration de base :
- Explorez les différents outils dans le répertoire
tools
- Essayez de créer des tâches d’agent avec gomcptest
- Consultez les guides pratiques pour des cas d’utilisation spécifiques
2 - Building Your First OpenAI-Compatible Server
Set up and run an OpenAI-compatible server with MCP tool support
This tutorial will guide you step-by-step through running and configuring the OpenAI-compatible server in gomcptest. By the end, you’ll have a working server that can communicate with LLM models and execute MCP tools.
Prerequisites
- Go >= 1.21 installed
- Access to Google Cloud Platform with Vertex AI API enabled
- GCP authentication set up via
gcloud auth login
- Basic familiarity with terminal commands
- The gomcptest repository cloned and tools built (see the Getting Started guide)
Step 1: Set Up Environment Variables
The OpenAI server requires several environment variables. Create a .envrc file in the host/openaiserver directory:
cd host/openaiserver
touch .envrc
Add the following content to the .envrc file, adjusting the values according to your setup:
# Server configuration
PORT=8080
LOG_LEVEL=INFO
IMAGE_DIR=/tmp/images
# GCP configuration
GCP_PROJECT=your-gcp-project-id
GCP_REGION=us-central1
GEMINI_MODELS=gemini-2.0-flash
IMAGEN_MODELS=imagen-3.0-generate-002
Ensure the image directory exists:
Load the environment variables:
Step 2: Start the OpenAI Server
Now you can start the OpenAI-compatible server:
cd host/openaiserver
go run . -mcpservers "../bin/GlobTool;../bin/GrepTool;../bin/LS;../bin/View;../bin/Bash;../bin/Replace"
You should see output indicating that the server has started and registered the MCP tools.
Step 3: Test the Server with a Simple Request
Open a new terminal window and use curl to test the server:
curl http://localhost:8080/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gemini-2.0-flash",
"messages": [
{
"role": "user",
"content": "Hello, what can you do?"
}
]
}'
You should receive a response from the model explaining its capabilities.
Step 4: Test Function Calling
Now let’s test function calling by asking the model to list files in a directory:
curl http://localhost:8080/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gemini-2.0-flash",
"messages": [
{
"role": "user",
"content": "List the files in the current directory"
}
]
}'
The model should respond by calling the LS tool and returning the results.
What You’ve Learned
In this tutorial, you’ve:
- Set up the environment for the OpenAI-compatible server
- Built and registered MCP tools
- Started the server
- Tested basic chat completion
- Demonstrated function calling capabilities
Next Steps
Now that you have a working OpenAI-compatible server, you can:
- Explore the API by sending different types of requests
- Add custom tools to expand the server’s capabilities
- Connect a client like the cliGCP to interact with the server
- Experiment with different Gemini models
Check out the How to Configure the OpenAI Server guide for more advanced configuration options.
3 - Utiliser l'Interface en Ligne de Commande cliGCP
Configurer et utiliser l’interface en ligne de commande cliGCP pour interagir avec les LLMs et les outils MCP
Ce tutoriel vous guide à travers la configuration et l’utilisation de l’interface en ligne de commande cliGCP pour interagir avec les LLMs et les outils MCP. À la fin, vous serez capable d’exécuter le CLI et d’effectuer des tâches de base avec celui-ci.
Prérequis
Avant de commencer, assurez-vous que vous avez :
- Go 1.21 ou plus récent installé
- Un compte Google Cloud Platform avec l’API Vertex AI activée
- L’authentification Google Cloud configurée (voir le tutoriel de démarrage)
- Une installation gomcptest fonctionnelle avec les outils construits
Configuration de l’Environnement
Définir les variables d’environnement :
# Votre ID de projet GCP
export GCP_PROJECT=votre-projet-id
# Région Vertex AI (par défaut: us-central1)
export GCP_REGION=us-central1
# Modèles Gemini à utiliser
export GEMINI_MODELS=gemini-1.5-pro,gemini-2.0-flash
# Répertoire pour stocker les images temporaires
export IMAGE_DIR=/tmp/images
Créer le répertoire d’images :
Compilation et Exécution de cliGCP
Compiler cliGCP :
cd /chemin/vers/gomcptest
go build -o bin/cliGCP ./host/cliGCP
Exécuter cliGCP avec les outils de base :
cd /chemin/vers/gomcptest
bin/cliGCP -mcpservers "bin/GlobTool;bin/GrepTool;bin/LS;bin/View;bin/Bash"
Vous devriez voir une interface de chat interactive s’ouvrir, où vous pouvez interagir avec le modèle LLM.
Utilisation de cliGCP
Commandes de Base
Dans l’interface cliGCP, vous pouvez :
- Écrire des messages textuels pour interagir avec le LLM
- Utiliser
/help
pour afficher les commandes disponibles - Utiliser
/exit
ou Ctrl+C pour quitter la session
Exemples d’Interactions
Essayez ces exemples pour tester les capacités de base du système :
Requête simple :
Peux-tu m'expliquer le Protocole de Contexte de Modèle en termes simples ?
Utilisation de l’outil Bash :
Affiche les 5 derniers fichiers modifiés dans le répertoire courant.
Recherche de fichiers :
Trouve tous les fichiers Go dans ce projet.
Lecture et Explication de Code :
Explique ce que fait le fichier main.go dans le répertoire cliGCP.
Utilisation d’Outils Avancés
Dispatch Agent
Pour utiliser l’outil dispatch_agent, qui permet de déléguer des tâches complexes :
bin/cliGCP -mcpservers "bin/GlobTool;bin/GrepTool;bin/LS;bin/View;bin/dispatch_agent -glob-path bin/GlobTool -grep-path bin/GrepTool -ls-path bin/LS -view-path bin/View;bin/Bash"
Maintenant, vous pouvez demander des choses comme :
Trouve tous les fichiers Go qui importent le paquet "context" et résume leur but.
Modification de Fichiers
Pour permettre la modification de fichiers, incluez les outils Edit et Replace :
bin/cliGCP -mcpservers "bin/GlobTool;bin/GrepTool;bin/LS;bin/View;bin/Bash;bin/Edit;bin/Replace"
Vous pouvez maintenant demander :
Crée un nouveau fichier README.md avec une description de base du projet.
Personnalisation de l’Expérience
Pour une expérience plus personnalisée, vous pouvez définir une instruction système spécifique :
export SYSTEM_INSTRUCTION="Tu es un assistant en programmation Go expert qui aide à analyser et améliorer le code."
bin/cliGCP -mcpservers "bin/GlobTool;bin/GrepTool;bin/LS;bin/View;bin/Bash"
Résolution des Problèmes Courants
Erreurs d’Authentification
Si vous rencontrez des erreurs d’authentification :
- Vérifiez que vous avez exécuté
gcloud auth application-default login
- Assurez-vous que votre compte a accès au projet GCP et à l’API Vertex AI
- Vérifiez que la variable d’environnement
GCP_PROJECT
est correctement définie
Erreurs d’Outil
Si les outils ne sont pas trouvés ou ne fonctionnent pas :
- Vérifiez les chemins des outils dans la commande
-mcpservers
- Assurez-vous que tous les outils ont été compilés avec
make tools
- Vérifiez les permissions d’exécution sur les fichiers d’outils
Prochaines Étapes
Maintenant que vous avez configuré et utilisé l’interface cliGCP, vous pouvez :