Une API pour mettre ChatGPT dans n’importe quelle app
OpenAI ouvre un accès à ChatGPT via une API et le nouveau format Chat Markup Language. Les développeurs peuvent par ailleurs faire exécuter leurs requêtes sur des instances dédiées dans Azure.
La dissémination de textes produits par ChatGPT promet de s’accélérer. Les développeurs peuvent en effet désormais intégrer les fonctionnalités de ChatGPT dans leur app via une API mise à disposition par OpenAI. La firme avait fait de même en novembre pour la génération d’images. OpenAI précise que les requêtes doivent être formulées dans Chat Markup Language (ou ChatML), un langage structuré qu’elle introduit par la même occasion. Ce dernier donne la possibilité d’introduire des métadonnées (pour l’instant l’auteur) et un contenu (pour l’heure du texte) et laisse augurer de futures fonctionnalités additionnelles. Les requêtes via l’API coûtent actuellement 1 dollar pour 500’000 tokens/mots.
Si l’API a de quoi faire exploser le nombre d’apps intégrant ChatGPT, cet essor pourrait être freiné par les app stores. Selon le Wall Street Journal, Apple vient ainsi d’exiger que la dernière mise à jour de l’app BlueMail recourant au chatbot ne soit disponible qu’aux plus de 17 ans, au grand dam de l’éditeur Blix. L’application Bing pour iOS qui intègre le chatbot est d’ailleurs elle aussi réservée aux personnes majeures.
Instances dédiées
OpenAI annonce également la disponibilité d’instances dédiées dans Azure pour les développeurs qui souhaitent que les requêtes adressées à l’API ne soient pas exécutées sur une infrastructure partagée. Ils paient dés lors non plus par token, mais par période durant laquelle une partie de l’infrastructure est réservée pour leurs demandes. Les développeurs ont ainsi un meilleur contrôle de la charge et peuvent optimiser la puissance disponible. Selon OpenAI le modèle peut s’avérer économiquement avantageux pour les développeurs employant plus de 450 millions de mots/tokens par jour.