Google Gemini
Google Gemini fournit des modèles IA puissants avec des fenêtres de contexte massives (jusqu'à 1M de jetons) et un niveau gratuit généreux qui ne nécessite pas de carte de crédit. Cela en fait l'un des meilleurs points de départ pour les nouveaux utilisateurs.
Obtenir une Clé API Gratuite
- Allez sur aistudio.google.com/apikey
- Connectez-vous avec votre compte Google
- Cliquez sur Créer une clé API
- Copiez la clé (commence par
AIza...) - Collez-la dans AI Supreme Council sous Paramètres > Modèle IA > Google Gemini
Le niveau gratuit de Google Gemini est vraiment gratuit -- pas de carte de crédit, pas de configuration de facturation, pas de période d'essai. Vous pouvez commencer à discuter immédiatement après avoir généré votre clé API.
Modèles Pris en Charge
| Modèle | Fenêtre de Contexte | Sortie Max | Niveau | Limite de Débit (Gratuit) | Capacités |
|---|---|---|---|---|---|
| Gemini 3 Pro Preview | 1M | 65K | Payant | -- | Vision, outils, raisonnement, code |
| Gemini 3 Flash Preview | 1M | 65K | Gratuit | 10 RPM | Vision, outils, code |
| Gemini 2.5 Pro | 1M | 65K | Payant | 5 RPM (niveau gratuit) | Vision, outils, raisonnement, code |
| Gemini 2.5 Flash | 1M | 65K | Gratuit | 10 RPM | Vision, outils, code |
| Gemini 2.5 Flash-Lite | 1M | 65K | Gratuit | 30 RPM | Vision, code |
Limites de Débit du Niveau Gratuit
| Modèle | Requêtes/Min | Jetons/Min | Requêtes/Jour |
|---|---|---|---|
| Gemini 3 Flash Preview | 10 | 250K | 500 |
| Gemini 2.5 Flash | 10 | 250K | 500 |
| Gemini 2.5 Pro | 5 | 250K | 100 |
| Gemini 2.5 Flash-Lite | 30 | 250K | 1 500 |
RPM = requêtes par minute, TPM = jetons par minute, RPD = requêtes par jour.
Pour des limites de débit plus élevées, vous pouvez activer la facturation sur votre compte Google Cloud. La tarification payante pour Gemini 2.5 Pro est de 1,25$/10,00$ par MTok (entrée/sortie). Les modèles gratuits (Flash, Flash-Lite) restent gratuits même avec la facturation activée.
Support Réflexion / Raisonnement
Gemini 2.5 Pro et Gemini 3 Pro Preview prennent en charge le mode réflexion, où le modèle raisonne à travers un problème étape par étape avant de répondre. La sortie de réflexion apparaît dans un bloc réductible au-dessus de la réponse.
Pour activer la réflexion, définissez l'Effort de Raisonnement dans le panneau de configuration du bot :
| Paramètre | Jetons de Budget | Idéal Pour |
|---|---|---|
low | 8 192 | Raisonnement rapide, problèmes simples |
medium | 32 768 | Analyse modérée |
high | 128 000 | Raisonnement approfondi, problèmes complexes |
max | Limite du modèle - 1024 | Profondeur de raisonnement maximale |
| Nombre personnalisé | Votre valeur | Contrôle fin |
La réflexion est implémentée via le paramètre thinkingConfig de Gemini avec une valeur thinkingBudget. Lorsque la réflexion est activée, l'application augmente automatiquement maxOutputTokens pour accueillir à la fois les jetons de réflexion et de réponse. Le contenu de réflexion est streamé avec un indicateur thought: true sur les parties de réponse.
Support Vision
Tous les modèles Gemini prennent en charge l'entrée vision. Vous pouvez :
- Coller des images directement dans l'entrée de chat (Ctrl+V / Cmd+V)
- Télécharger des images en utilisant le bouton de pièce jointe
- Glisser-déposer des images dans la zone de chat
Les images sont envoyées comme données base64 en ligne à l'API Gemini. Les modèles excellent dans les tâches multimodales -- analyse d'images, lecture de documents et compréhension du contenu visuel.
Détails Techniques
Gemini utilise son propre format d'API natif, qui diffère du format compatible OpenAI utilisé par la plupart des autres fournisseurs :
| Aspect | Gemini | Compatible OpenAI |
|---|---|---|
| Point de terminaison | generativelanguage.googleapis.com/v1beta | /v1/chat/completions |
| Auth | Paramètre de requête URL (?key=) | En-tête de jeton Bearer |
| Messages | tableau contents avec role: "user"/"model" | tableau messages avec role: "user"/"assistant" |
| Prompt système | champ systemInstruction | Message système dans le tableau messages |
| Streaming | paramètre ?alt=sse | stream: true dans le corps |
AI Supreme Council gère automatiquement toutes les différences de format. Vous n'avez pas à vous soucier du format de l'API -- sélectionnez simplement Gemini comme fournisseur et commencez à discuter.
Configuration
Lors de la création d'un profil de bot, sélectionnez Google Gemini comme fournisseur et choisissez votre modèle préféré. Vous pouvez définir une clé API par bot dans le panneau de configuration du bot pour remplacer la clé globale.
Le fournisseur Gemini utilise l'API native streamGenerateContent avec streaming SSE. Les clés API sont passées comme paramètre de requête URL (pas un en-tête), ce qui évite les requêtes de pré-vérification CORS et améliore les performances.
Conseils pour de Meilleurs Résultats
- Commencez ici si vous êtes nouveau. Le niveau gratuit de Gemini sans exigence de carte de crédit en fait le moyen le plus simple de commencer à utiliser AI Supreme Council.
- Utilisez Flash-Lite pour les tâches à fort volume. À 30 RPM gratuit, il gère mieux les requêtes rapides que toute autre option gratuite.
- Tirez parti de la fenêtre de contexte de 1M. Tous les modèles Gemini prennent en charge 1 million de jetons de contexte -- vous pouvez coller des livres entiers, des bases de code ou des collections de documents.
- Activez la réflexion pour les modèles Pro. Gemini 2.5 Pro avec réflexion activée est compétitif avec les meilleurs modèles de raisonnement de n'importe quel fournisseur.
- Combinez avec OpenRouter. Utilisez Gemini pour les tâches gratuites et OpenRouter pour accéder aux modèles d'autres fournisseurs, le tout sans carte de crédit.