Tutoriels

Guides étape par étape pour commencer avec gomcptest

Les tutoriels sont des guides d’apprentissage qui vous guident à travers une série d’étapes pour compléter un projet. Ils se concentrent sur l’apprentissage par la pratique et aident les débutants à se familiariser avec le système.

Ces tutoriels vous aideront à vous familiariser avec gomcptest et ses composants.

1 - Démarrage avec gomcptest

Démarrez rapidement avec gomcptest grâce à ce guide pour débutants

Ce tutoriel vous guidera à travers la configuration du système gomcptest et la mise en place de l’authentification Google Cloud pour le projet.

Prérequis

  • Go >= 1.21 installé sur votre système
  • Compte Google Cloud avec accès à l’API Vertex AI
  • Google Cloud CLI installé
  • Familiarité de base avec le terminal/ligne de commande

Configuration de l’Authentification Google Cloud

Avant d’utiliser gomcptest avec les services de Google Cloud Platform comme Vertex AI, vous devez configurer votre authentification.

1. Initialiser le CLI Google Cloud

Si vous n’avez pas encore configuré le CLI Google Cloud, exécutez :

gcloud init

Cette commande interactive vous guidera à travers :

  • La connexion à votre compte Google
  • La sélection d’un projet Google Cloud
  • La définition des configurations par défaut

2. Se connecter à Google Cloud

Authentifiez votre CLI gcloud avec votre compte Google :

gcloud auth login

Cela ouvrira une fenêtre de navigateur où vous pourrez vous connecter à votre compte Google.

3. Configurer les Identifiants par Défaut de l’Application (ADC)

Les Identifiants par Défaut de l’Application sont utilisés par les bibliothèques clientes pour trouver automatiquement les identifiants lors de la connexion aux services Google Cloud :

gcloud auth application-default login

Cette commande va :

  1. Ouvrir une fenêtre de navigateur pour l’authentification
  2. Stocker vos identifiants localement (généralement dans ~/.config/gcloud/application_default_credentials.json)
  3. Configurer votre environnement pour utiliser ces identifiants lors de l’accès aux API Google Cloud

Ces identifiants seront utilisés par gomcptest lors de l’interaction avec les services Google Cloud.

Configuration du Projet

  1. Cloner le dépôt :

    git clone https://github.com/owulveryck/gomcptest.git
    cd gomcptest
    
  2. Construire les Outils : Compiler tous les outils compatibles MCP

    make tools
    
  3. Choisir l’Interface :

Prochaines Étapes

Après avoir terminé la configuration de base :

  • Explorez les différents outils dans le répertoire tools
  • Essayez de créer des tâches d’agent avec gomcptest
  • Consultez les guides pratiques pour des cas d’utilisation spécifiques

2 - Building Your First OpenAI-Compatible Server

Set up and run an OpenAI-compatible server with MCP tool support

This tutorial will guide you step-by-step through running and configuring the OpenAI-compatible server in gomcptest. By the end, you’ll have a working server that can communicate with LLM models and execute MCP tools.

Prerequisites

  • Go >= 1.21 installed
  • Access to Google Cloud Platform with Vertex AI API enabled
  • GCP authentication set up via gcloud auth login
  • Basic familiarity with terminal commands
  • The gomcptest repository cloned and tools built (see the Getting Started guide)

Step 1: Set Up Environment Variables

The OpenAI server requires several environment variables. Create a .envrc file in the host/openaiserver directory:

cd host/openaiserver
touch .envrc

Add the following content to the .envrc file, adjusting the values according to your setup:

# Server configuration
PORT=8080
LOG_LEVEL=INFO
IMAGE_DIR=/tmp/images

# GCP configuration
GCP_PROJECT=your-gcp-project-id
GCP_REGION=us-central1
GEMINI_MODELS=gemini-2.0-flash
IMAGEN_MODELS=imagen-3.0-generate-002

Ensure the image directory exists:

mkdir -p /tmp/images

Load the environment variables:

source .envrc

Step 2: Start the OpenAI Server

Now you can start the OpenAI-compatible server:

cd host/openaiserver
go run . -mcpservers "../bin/GlobTool;../bin/GrepTool;../bin/LS;../bin/View;../bin/Bash;../bin/Replace"

You should see output indicating that the server has started and registered the MCP tools.

Step 3: Test the Server with a Simple Request

Open a new terminal window and use curl to test the server:

curl http://localhost:8080/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gemini-2.0-flash",
    "messages": [
      {
        "role": "user",
        "content": "Hello, what can you do?"
      }
    ]
  }'

You should receive a response from the model explaining its capabilities.

Step 4: Test Function Calling

Now let’s test function calling by asking the model to list files in a directory:

curl http://localhost:8080/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gemini-2.0-flash",
    "messages": [
      {
        "role": "user",
        "content": "List the files in the current directory"
      }
    ]
  }'

The model should respond by calling the LS tool and returning the results.

What You’ve Learned

In this tutorial, you’ve:

  1. Set up the environment for the OpenAI-compatible server
  2. Built and registered MCP tools
  3. Started the server
  4. Tested basic chat completion
  5. Demonstrated function calling capabilities

Next Steps

Now that you have a working OpenAI-compatible server, you can:

  • Explore the API by sending different types of requests
  • Add custom tools to expand the server’s capabilities
  • Connect a client like the cliGCP to interact with the server
  • Experiment with different Gemini models

Check out the How to Configure the OpenAI Server guide for more advanced configuration options.

3 - Utiliser l'Interface en Ligne de Commande cliGCP

Configurer et utiliser l’interface en ligne de commande cliGCP pour interagir avec les LLMs et les outils MCP

Ce tutoriel vous guide à travers la configuration et l’utilisation de l’interface en ligne de commande cliGCP pour interagir avec les LLMs et les outils MCP. À la fin, vous serez capable d’exécuter le CLI et d’effectuer des tâches de base avec celui-ci.

Prérequis

Avant de commencer, assurez-vous que vous avez :

  • Go 1.21 ou plus récent installé
  • Un compte Google Cloud Platform avec l’API Vertex AI activée
  • L’authentification Google Cloud configurée (voir le tutoriel de démarrage)
  • Une installation gomcptest fonctionnelle avec les outils construits

Configuration de l’Environnement

  1. Définir les variables d’environnement :

    # Votre ID de projet GCP
    export GCP_PROJECT=votre-projet-id
    
    # Région Vertex AI (par défaut: us-central1)
    export GCP_REGION=us-central1
    
    # Modèles Gemini à utiliser 
    export GEMINI_MODELS=gemini-1.5-pro,gemini-2.0-flash
    
    # Répertoire pour stocker les images temporaires
    export IMAGE_DIR=/tmp/images
    
  2. Créer le répertoire d’images :

    mkdir -p /tmp/images
    

Compilation et Exécution de cliGCP

  1. Compiler cliGCP :

    cd /chemin/vers/gomcptest
    go build -o bin/cliGCP ./host/cliGCP
    
  2. Exécuter cliGCP avec les outils de base :

    cd /chemin/vers/gomcptest
    bin/cliGCP -mcpservers "bin/GlobTool;bin/GrepTool;bin/LS;bin/View;bin/Bash"
    

Vous devriez voir une interface de chat interactive s’ouvrir, où vous pouvez interagir avec le modèle LLM.

Utilisation de cliGCP

Commandes de Base

Dans l’interface cliGCP, vous pouvez :

  • Écrire des messages textuels pour interagir avec le LLM
  • Utiliser /help pour afficher les commandes disponibles
  • Utiliser /exit ou Ctrl+C pour quitter la session

Exemples d’Interactions

Essayez ces exemples pour tester les capacités de base du système :

  1. Requête simple :

    Peux-tu m'expliquer le Protocole de Contexte de Modèle en termes simples ?
    
  2. Utilisation de l’outil Bash :

    Affiche les 5 derniers fichiers modifiés dans le répertoire courant.
    
  3. Recherche de fichiers :

    Trouve tous les fichiers Go dans ce projet.
    
  4. Lecture et Explication de Code :

    Explique ce que fait le fichier main.go dans le répertoire cliGCP.
    

Utilisation d’Outils Avancés

Dispatch Agent

Pour utiliser l’outil dispatch_agent, qui permet de déléguer des tâches complexes :

bin/cliGCP -mcpservers "bin/GlobTool;bin/GrepTool;bin/LS;bin/View;bin/dispatch_agent -glob-path bin/GlobTool -grep-path bin/GrepTool -ls-path bin/LS -view-path bin/View;bin/Bash"

Maintenant, vous pouvez demander des choses comme :

Trouve tous les fichiers Go qui importent le paquet "context" et résume leur but.

Modification de Fichiers

Pour permettre la modification de fichiers, incluez les outils Edit et Replace :

bin/cliGCP -mcpservers "bin/GlobTool;bin/GrepTool;bin/LS;bin/View;bin/Bash;bin/Edit;bin/Replace"

Vous pouvez maintenant demander :

Crée un nouveau fichier README.md avec une description de base du projet.

Personnalisation de l’Expérience

Pour une expérience plus personnalisée, vous pouvez définir une instruction système spécifique :

export SYSTEM_INSTRUCTION="Tu es un assistant en programmation Go expert qui aide à analyser et améliorer le code."
bin/cliGCP -mcpservers "bin/GlobTool;bin/GrepTool;bin/LS;bin/View;bin/Bash"

Résolution des Problèmes Courants

Erreurs d’Authentification

Si vous rencontrez des erreurs d’authentification :

  1. Vérifiez que vous avez exécuté gcloud auth application-default login
  2. Assurez-vous que votre compte a accès au projet GCP et à l’API Vertex AI
  3. Vérifiez que la variable d’environnement GCP_PROJECT est correctement définie

Erreurs d’Outil

Si les outils ne sont pas trouvés ou ne fonctionnent pas :

  1. Vérifiez les chemins des outils dans la commande -mcpservers
  2. Assurez-vous que tous les outils ont été compilés avec make tools
  3. Vérifiez les permissions d’exécution sur les fichiers d’outils

Prochaines Étapes

Maintenant que vous avez configuré et utilisé l’interface cliGCP, vous pouvez :

  • Explorer les différentes configurations avancées de cliGCP
  • Créer des outils personnalisés pour étendre les fonctionnalités
  • Créer des alias shell ou des scripts pour simplifier l’accès à vos configurations préférées