GPT 4.5 d’OpenAI : moins d’hallucinations, plus de quotient émotionnel et de… risques
Quelles sont les initiales de grand-père tortue ?

GPT-4.5 est disponible, en version préliminaire, avec un accès limité aux abonnements Pro pour l’instant. Open AI prévoit une ouverture plus large dans les semaines à venir, lorsque l’entreprise aura accès à des « dizaines de milliers de GPU » supplémentaires. En attendant, qu’y-a-t-il de neuf dans cette nouvelle version intermédiaire du modèle GPT ?
Ce nouveau modèle de langage de la famille GPT est bien sûr meilleur que les précédents, dans tous les domaines si l’on en croit OpenAI : base de connaissances plus large, meilleure capacité à suivre l’intention de l’utilisateur, amélioration de l’écriture, de la programmation et de la résolution de problèmes. « Nous nous attendons également à ce qu’il hallucine moins », affirme la société.
OpenAI prend des gants : « Nous partageons GPT-4.5 en tant qu’aperçu de la recherche afin de mieux comprendre ses forces et ses limites »… l’entreprise veut certainement éviter de possibles retours de flammes, comme en a fait les frais Linagora avec son chatbot Lucie.
Les deux faces des modèles d’Open AI
Avant d’entrer dans le détail de GPT-4.5, l’entreprise explique qu’elle travaille sur « deux paradigmes complémentaires » avec ses grands modèles de langage.
Il y a d’un côté ceux avec du « raisonnement », c’est-à-dire des modèles capables de « produire une chaîne de pensée avant de répondre ». o1 était le premier modèle de raisonnement d’OpenAI (en septembre 2024), suivi par o3-mini. Ils sont plus longs à répondre, mais visent généralement plus juste.
De l’autre, il y a les modèles plus classiques, basés sur l’apprentissage non supervisé, une technique qui « augmente la précision et l’intuition du modèle ». Le principe est assez simple : « l’algorithme utilise un jeu de données brutes et obtient un résultat en se fondant sur la détection de similarités entre certaines de ces données », rappelle la CNIL.
GPT-4.5 relève de la seconde catégorie. Il entre directement dans la catégorie poids lourd, avec un bond en avant sur la puissance de calcul et les données. Comme toujours, OpenAI reste silencieuse sur les détails techniques de son modèle et de son entrainement. Microsoft étant un partenaire de premier plan d’OpenAI, des serveurs Azure AI ont été utilisés pour l’entrainement du modèle.
Une même question, de GPT-1 à GPT-4.5
Pour se faire une idée des progrès des différents GPT, Open AI propose les réponses des différentes versions à une même question :





Résultat des courses, selon le communiqué : GPT-4.5 est « un modèle doté de connaissances plus étendues et d’une compréhension plus approfondie du monde, conduisant à une réduction des hallucinations et une plus grande fiabilité dans un large éventail de sujets ». Mais il « n’apporte pas de nouvelles fonctionnalités frontières par rapport aux versions de raisonnement précédentes ».
On passe rapidement sur les benchmarks maison. Ils mettent évidemment à l’honneur GPT 4.5 par rapport aux autres modèles GPT sur la connaissance du monde et le taux d’hallucination (qui reste tout de même de 37 %). Mais l’entreprise ajoute aussi que GPT-4.5 est moins bon que o1 et o3-mini sur certaines tâches comme les benchmarks maison SWE-Lancer Diamond et SWE-Bench Verified.
Sam Altman aussi souffle le chaud et le froid sur X : « ce n’est pas un modèle de raisonnement et il ne va pas écraser les benchmarks. C’est un type d’intelligence différent et il y a une magie que je n’avais jamais ressentie auparavant ».


Dans les échanges, GPT-4.5 veut se rapprocher des humains
Dans l’ensemble, GPT-4.5 serait « un modèle qui intègre naturellement des idées dans des conversations chaleureuses et intuitives, davantage en phase avec des échanges humains. GPT-4.5 a une meilleure compréhension de ce que les humains veulent dire et interprète des signaux faibles ou des attentes implicites avec plus de nuances et de quotient émotionnel ».
Selon l’entreprise, « GPT 4.5 ne réfléchit pas avant de répondre, ce qui le rend particulièrement différent des modèles de raisonnement comme o1 ». Le nouveau venu serait ainsi « un modèle plus polyvalent et intrinsèquement plus intelligent ».
Voici quelques comparaisons données par OpenAI entre GPT-4.5 et GPT-4o :



Hausses des performances et… des risques
Impossible de parler d’un nouveau modèle sans revenir sur la question des garde-fous. OpenAI affirme avoir développé de « nouvelles techniques de supervision », combinées avec du fine-tuning et de l’apprentissage par renforcement à partir de rétroaction humaine, pour « aligner » le modèle sur les préférences humaines. Rien de nouveau ici.
Dans une publication scientifique (.pdf), des chercheurs d’OpenAI explique que « GPT-4.5 apporte des améliorations notables en termes de capacités et de sécurité, mais augmente également certains risques ».
« Les évaluations internes et externes classent le modèle de pré-atténuation comme présentant un risque moyen [soit 2 sur une échelle allant de 1 à 4, ndlr] en matière de Persuasion et de CBRN [Chemical, biological, radiological, and nuclear defense, ndlr] ». Le risque reste faible sur les deux autres indicateurs (.pdf) que sont la cybersécurité et l’autonomie du modèle.
GPT-4.5 en trois mots : volumineux, gourmand et cher
OpenAI prévient : « GPT-4.5 est un modèle très volumineux et gourmand en calculs, ce qui le rend plus cher que GPT-4o et ne le remplace pas ». GPT-4.5 n’est pour le moment pas multimodal, il ne prend donc pas en charge le mode vocal, la vidéo et le partage d’écran dans ChatGPT.
Et niveau prix, l’addition est, en effet, salée : 75 dollars pour 1 million de tokens en entrée, 150 dollars pour 1 million de tokens en sortie. C’est entre 15 et 30 fois plus cher que GPT-4o, et 2 à 3 trois fois plus que OpenAI o1.
Voici un comparatif des prix actuels, pour un million de tokens en entrée et en sortie à chaque fois :
- GPT-4.5 : 75 et 150 dollars
- GPT-4o : 2,50 et 10 dollars
- GPT-4o mini : 0,15 et 0,60 dollar
- OpenAI o1 : 15 et 60 dollars
- OpenAI o3-mini et o1-mini : 1,10 et 4,40 dollars
OpenAI manque de GPU pour l’ouvrir largement
L’accès à la version préliminaire de GPT-4.5 est pour le moment réservé aux comptes Pro… à 200 dollars par mois. Les utilisateurs Plus et Team pourront en profiter à partir de la semaine prochaine, puis encore celle d’après pour Enterprise et Edu.
Selon Sam Altman, le patron d’OpenAI, ce lancement en plusieurs étapes est la conséquence d’une « pénurie » de GPU : « Nous voulions vraiment le lancer en version Plus et Pro en même temps, mais nous avons beaucoup grandi et n’avons plus de GPU. Nous ajouterons des dizaines de milliers de GPU la semaine prochaine », ce qui permettra aux clients Plus d’y accéder. Sinon, il suffisait d’attendre quelques jours pour lancer GPT-4.5.
« Des centaines de milliers arriveront bientôt, et je suis sûr que vous utiliserez tous ceux que nous pourrons accumuler », ajoute Sam Altman. Voilà qui devrait ravir NVIDIA, dont les finances se portent au mieux ce trimestre avec des revenus qui ont plus que doublé en un an.