Liens rapides
Avec la sortie de l'API, OpenAI a ouvert les capacités de ChatGPT à tout le monde. Vous pouvez désormais intégrer de manière transparente les fonctionnalités de ChatGPT dans vos différents projets. L'utilisation d'une API est une étape essentielle pour exploiter la puissance du machine learning dans les applications et les sites Web. Cette interface vous permet d'intégrer facilement les capacités linguistiques supérieures de ChatGPT dans vos applications.
Nous verrons en détail comment utiliser l'API ChatGPT de manière efficace et productive. Notre objectif est de fournir un guide complet et utile qui aide les développeurs et les utilisateurs à tirer le meilleur parti de l'API ChatGPT. Suivez ces étapes pour commencer, que vous cherchiez à intégrer ChatGPT dans votre application existante ou à développer de nouvelles applications en l'utilisant. Vérifier Quelques API d'IA générative que les développeurs devraient prendre en compte.
1. Obtenez la clé API OpenAI
Pour commencer à utiliser l'API ChatGPT, vous devez obtenir une clé API.
- Inscrivez-vous ou connectez-vous à votre compte sur la plateforme OpenAI Officiel.
- Une fois connecté, cliquez sur l'onglet Clés API Dans la barre latérale.
- Ensuite, cliquez sur le bouton « Créer une nouvelle clé secrète » pour générer la clé API.
- Vous ne pourrez plus consulter votre clé API, alors copiez-la et stockez-la dans un endroit sûr.
Note: Le code utilisé dans ce projet est disponible sur Référentiel GitHub Son utilisation est gratuite sous la licence MIT.
2. Créer l'environnement de développement
Vous pouvez utiliser le point de terminaison de l'API directement ou exploiter la bibliothèque openai Python/JavaScript pour commencer à créer des applications alimentées par l'API ChatGPT. Ce guide utilise le langage et la bibliothèque Python openai-python.
Commencer:
- Vous pouvez commencer à créer Environnement virtuel Python.
- Installez les bibliothèques openai et python-dotenv en utilisant pip:
pip install openai python-dotenv
- Créez un fichier .env dans le répertoire principal de votre projet pour stocker en toute sécurité votre clé API.
- Ensuite, dans le même fichier, définissez la variable OPENAI_API_KEY sur la valeur clé que vous avez copiée précédemment :
OPENAI_API_KEY="YOUR_API_KEY"
Avertissement: Assurez-vous de ne pas partager accidentellement votre clé API via... Contrôle de version. Ajoutez le fichier .gitignore au répertoire personnel de votre projet et ajoutez-y « .env » pour ignorer le fichier dotenv.
3. Faites des requêtes API ChatGPT
Les modèles GPT-3.5 Turbo, GPT-4 et GPT-4 Turbo de l'API OpenAI sont les mêmes modèles utilisés par ChatGPT. Ces modèles puissants sont capables de comprendre et de générer du texte et du code en langage naturel. GPT-4 Turbo peut également traiter les entrées d'images, ouvrant ainsi la voie à plusieurs utilisations, notamment l'analyse d'images, l'analyse de documents avec des formes et la copie de texte à partir d'images.
Veuillez noter que l'API ChatGPT est un terme générique désignant les API OpenAI qui utilisent des modèles basés sur GPT, notamment les modèles gpt-3.5-turbo, gpt-4 et gpt-4-turbo.
L'API ChatGPT est principalement optimisée pour le chat, mais fonctionne également bien pour les tâches de complétion de texte. Que vous souhaitiez créer du code, traduire des langues ou rédiger des documents, cette API peut tout gérer.
Note: Pour accéder à l'API GPT-4, vous devez effectuer un paiement réussi de 1 $ ou plus. Sinon, vous risquez d'obtenir une erreur semblable à la suivante : "Le formulaire `gpt-4` n'existe pas ou vous n'y avez pas accès. »
Utiliser l'API pour terminer le chat
Vous devez configurer le formulaire de discussion pour être prêt pour un appel API. Voici un exemple pour vous aider à comprendre :
from openai import OpenAI
from dotenv import load_dotenv
load_dotenv()
client = OpenAI()
response = client.chat.completions.create(
model = "gpt-3.5-turbo-0125",
temperature = 0.8,
max_tokens = 3000,
response_format={ "type": "json_object" },
messages = [
{"role": "system", "content": "You are a funny comedian who tells dad jokes. The output should be in JSON format."},
{"role": "user", "content": "Write a dad joke related to numbers."},
{"role": "assistant", "content": "Q: How do you make 7 even? A: Take away the s."},
{"role": "user", "content": "Write one related to programmers."}
]
)
L'API ChatGPT envoie une réponse au format suivant :
Vous pouvez extraire le contenu de la réponse, sous forme de chaîne JSON, à l'aide de ce code :
print(response.choices[0].message.content)
L'exécution de ce code produit le résultat suivant :
Le code montre l'appel de l'API ChatGPT à l'aide de Python. Notez que le modèle comprenait le contexte (« la blague de papa ») et le type de réponse (le modèle de questions et réponses) auquel nous nous attendions, en fonction des invites qui lui étaient présentées.
La partie la plus importante de la configuration est le paramètre messages qui accepte un ensemble d'objets de message. Chaque objet de message a un rôle et un contenu. Vous pouvez utiliser trois types de rôles :
- Système Ce qui définit le contexte et le comportement de l'assistant.
- utilisateur Qui donne des instructions à l'assistant. Ceci est généralement fourni par l’utilisateur final, mais vous pouvez également fournir à l’avance certaines invites utilisateur par défaut.
- assistant Qui peut inclure des exemples de réponses.
Vous pouvez également personnaliser la température (un facteur de contrôle utilisé pour modifier le comportement du modèle) et les paramètres max_tokens du modèle pour obtenir le résultat selon vos besoins.
Plus l’IA est chaude, plus la sortie est aléatoire, et vice versa. Si vous souhaitez que vos réponses soient plus ciblées et déterministes, choisissez une valeur faible. Si vous souhaitez être plus créatif, utilisez une valeur plus élevée. La valeur de la température est comprise entre 0 et 2.
Comme ChatGPT, l'API dispose également d'un nombre limité de mots. Utilisez le paramètre max_tokens Déterminer la longueur des réponses. Sachez que définir une valeur max_tokens inférieure peut causer des problèmes car cela peut couper la sortie au milieu.
Au moment de la rédaction de cet article, le modèle gpt-3.5-turbo a une limite de jetons de 4,096 4, tandis que le gpt-8,192 a une limite de jetons de 3.5 0125. Les derniers modèles gpt-4-turbo-16,385 et gpt-128,000-turbo-preview ont des limites de XNUMX XNUMX et XNUMX XNUMX respectivement.
Suite à une énorme demande des développeurs, OpenAI a introduit un mode JSON qui demande au modèle de toujours renvoyer un objet JSON. Vous pouvez activer le mode JSON en définissant Response_format sur { "type": "json_object" }. Actuellement, cette fonctionnalité n'est disponible que pour les derniers modèles : gpt-3.5-turbo-0125 et gpt-4-turbo-preview.
Vous pouvez également configurer le formulaire à l'aide d'autres paramètres que vous fournissez OpenAI.
Utilisez l'API ChatGPT pour compléter le texte
En plus des tâches de chat à plusieurs tours, l'API ChatGPT fait un bon travail de complétion de texte. L'exemple suivant montre comment configurer l'API ChatGPT pour la complétion de texte :
from openai import OpenAI
from dotenv import load_dotenv
load_dotenv()
client = OpenAI()
response = client.chat.completions.create(
model = "gpt-3.5-turbo",
temperature = 0.8,
max_tokens = 3000,
messages = [
{"role": "system", "content": "You are a poet who creates poems that evoke emotions."},
{"role": "user", "content": "Write a short poem for programmers."}
]
)
print(response.choices[0].message.content)
Vous n'avez même pas besoin de fournir le rôle et le contenu du système. Il suffit de fournir l'invite utilisateur pour faire le travail à votre place.
messages = [
{"role": "user", "content": "Write a short poem for programmers."}
]
L'exécution du code ci-dessus créera une ode aux programmeurs, par exemple :
Tarification de l'API ChatGPT
La tarification de l'API ChatGPT est basée sur le modèle « prix pour 1000 1000 jetons ». Pour les demandes de fin de chat, le coût est calculé en fonction du nombre de jetons d'entrée plus le nombre de jetons de sortie renvoyés par l'API. En termes simples, les jetons sont équivalents à des parties de mots, où 750 XNUMX jetons équivalent à environ XNUMX mots.
Modèle | Entrée | Sortie |
gpt-4-0125-aperçu | 0.01 $ / 1000 XNUMX jetons | 0.03 $ / 1000 XNUMX jetons |
gpt-4-1106-aperçu | 0.01 $ / 1000 XNUMX jetons | 0.03 $ / 1000 XNUMX jetons |
gpt-4-1106-vision-aperçu | 0.01 $ / 1000 XNUMX jetons | 0.03 $ / 1000 XNUMX jetons |
gpt-4 | 0.03 $ / 1000 XNUMX jetons | 0.06 $ / 1000 XNUMX jetons |
gpt-4-32k | 0.06 $ / 1000 XNUMX jetons | 0.12 $ / 1000 XNUMX jetons |
gpt-3.5-turbo-0125 | 0.0005 $ / 1000 XNUMX jetons | 0.0015 $ / 1000 XNUMX jetons |
gpt-3.5-turbo-instruct | 0.0015 $ / 1000 XNUMX jetons | 0.0020 $ / 1000 XNUMX jetons |
Notez que les prix peuvent changer au fil du temps à mesure que des améliorations sont apportées au modèle. Vérifier Les meilleures façons d'utiliser efficacement les instructions personnalisées ChatGPT.
Créez la prochaine génération d'applications avec l'API ChatGPT
L'API ChatGPT a ouvert la porte aux développeurs du monde entier pour créer des produits innovants dotés de la puissance de l'IA.
Vous pouvez utiliser cet outil pour développer des applications telles qu'un livre d'histoires, un traducteur de code, un générateur de copie marketing et des résumés de texte. Votre imagination est la limite pour créer des applications utilisant cette technologie. Vous pouvez voir maintenant Alternatives ChatGPT avancées qui fournissent des scripts d'application automatisés.