Aller au contenu principal

Google Gemini

Google Gemini fournit des modèles IA puissants avec des fenêtres de contexte massives (jusqu'à 1M de jetons) et un niveau gratuit généreux qui ne nécessite pas de carte de crédit. Cela en fait l'un des meilleurs points de départ pour les nouveaux utilisateurs.

Obtenir une Clé API Gratuite

  1. Allez sur aistudio.google.com/apikey
  2. Connectez-vous avec votre compte Google
  3. Cliquez sur Créer une clé API
  4. Copiez la clé (commence par AIza...)
  5. Collez-la dans AI Supreme Council sous Paramètres > Modèle IA > Google Gemini
Aucune Carte de Crédit Requise

Le niveau gratuit de Google Gemini est vraiment gratuit -- pas de carte de crédit, pas de configuration de facturation, pas de période d'essai. Vous pouvez commencer à discuter immédiatement après avoir généré votre clé API.

Modèles Pris en Charge

ModèleFenêtre de ContexteSortie MaxNiveauLimite de Débit (Gratuit)Capacités
Gemini 3 Pro Preview1M65KPayant--Vision, outils, raisonnement, code
Gemini 3 Flash Preview1M65KGratuit10 RPMVision, outils, code
Gemini 2.5 Pro1M65KPayant5 RPM (niveau gratuit)Vision, outils, raisonnement, code
Gemini 2.5 Flash1M65KGratuit10 RPMVision, outils, code
Gemini 2.5 Flash-Lite1M65KGratuit30 RPMVision, code

Limites de Débit du Niveau Gratuit

ModèleRequêtes/MinJetons/MinRequêtes/Jour
Gemini 3 Flash Preview10250K500
Gemini 2.5 Flash10250K500
Gemini 2.5 Pro5250K100
Gemini 2.5 Flash-Lite30250K1 500

RPM = requêtes par minute, TPM = jetons par minute, RPD = requêtes par jour.

Niveau Payant

Pour des limites de débit plus élevées, vous pouvez activer la facturation sur votre compte Google Cloud. La tarification payante pour Gemini 2.5 Pro est de 1,25$/10,00$ par MTok (entrée/sortie). Les modèles gratuits (Flash, Flash-Lite) restent gratuits même avec la facturation activée.

Support Réflexion / Raisonnement

Gemini 2.5 Pro et Gemini 3 Pro Preview prennent en charge le mode réflexion, où le modèle raisonne à travers un problème étape par étape avant de répondre. La sortie de réflexion apparaît dans un bloc réductible au-dessus de la réponse.

Pour activer la réflexion, définissez l'Effort de Raisonnement dans le panneau de configuration du bot :

ParamètreJetons de BudgetIdéal Pour
low8 192Raisonnement rapide, problèmes simples
medium32 768Analyse modérée
high128 000Raisonnement approfondi, problèmes complexes
maxLimite du modèle - 1024Profondeur de raisonnement maximale
Nombre personnaliséVotre valeurContrôle fin
Note Technique

La réflexion est implémentée via le paramètre thinkingConfig de Gemini avec une valeur thinkingBudget. Lorsque la réflexion est activée, l'application augmente automatiquement maxOutputTokens pour accueillir à la fois les jetons de réflexion et de réponse. Le contenu de réflexion est streamé avec un indicateur thought: true sur les parties de réponse.

Support Vision

Tous les modèles Gemini prennent en charge l'entrée vision. Vous pouvez :

  • Coller des images directement dans l'entrée de chat (Ctrl+V / Cmd+V)
  • Télécharger des images en utilisant le bouton de pièce jointe
  • Glisser-déposer des images dans la zone de chat

Les images sont envoyées comme données base64 en ligne à l'API Gemini. Les modèles excellent dans les tâches multimodales -- analyse d'images, lecture de documents et compréhension du contenu visuel.

Détails Techniques

Gemini utilise son propre format d'API natif, qui diffère du format compatible OpenAI utilisé par la plupart des autres fournisseurs :

AspectGeminiCompatible OpenAI
Point de terminaisongenerativelanguage.googleapis.com/v1beta/v1/chat/completions
AuthParamètre de requête URL (?key=)En-tête de jeton Bearer
Messagestableau contents avec role: "user"/"model"tableau messages avec role: "user"/"assistant"
Prompt systèmechamp systemInstructionMessage système dans le tableau messages
Streamingparamètre ?alt=ssestream: true dans le corps
remarque

AI Supreme Council gère automatiquement toutes les différences de format. Vous n'avez pas à vous soucier du format de l'API -- sélectionnez simplement Gemini comme fournisseur et commencez à discuter.

Configuration

Lors de la création d'un profil de bot, sélectionnez Google Gemini comme fournisseur et choisissez votre modèle préféré. Vous pouvez définir une clé API par bot dans le panneau de configuration du bot pour remplacer la clé globale.

Le fournisseur Gemini utilise l'API native streamGenerateContent avec streaming SSE. Les clés API sont passées comme paramètre de requête URL (pas un en-tête), ce qui évite les requêtes de pré-vérification CORS et améliore les performances.

Conseils pour de Meilleurs Résultats

  • Commencez ici si vous êtes nouveau. Le niveau gratuit de Gemini sans exigence de carte de crédit en fait le moyen le plus simple de commencer à utiliser AI Supreme Council.
  • Utilisez Flash-Lite pour les tâches à fort volume. À 30 RPM gratuit, il gère mieux les requêtes rapides que toute autre option gratuite.
  • Tirez parti de la fenêtre de contexte de 1M. Tous les modèles Gemini prennent en charge 1 million de jetons de contexte -- vous pouvez coller des livres entiers, des bases de code ou des collections de documents.
  • Activez la réflexion pour les modèles Pro. Gemini 2.5 Pro avec réflexion activée est compétitif avec les meilleurs modèles de raisonnement de n'importe quel fournisseur.
  • Combinez avec OpenRouter. Utilisez Gemini pour les tâches gratuites et OpenRouter pour accéder aux modèles d'autres fournisseurs, le tout sans carte de crédit.