Cette semaine, OpenAI a connu une crise majeure avec le départ puis le retour rapide de Sam Altman, son PDG. Cette situation mouvementée proviendrait en partie des progrès sur un projet nommé Q*, qui aurait atteint un stade de développement jugé trop dangereux pour l’humanité.
Des chercheurs mettent en garde quant à Project Q*
Les chercheurs d’OpenAI ont adressé une lettre au conseil d’administration afin de les alerter sur les dangers potentiels que représente le projet Q*. Selon eux, cette découverte poserait désormais une véritable menace pour l’espèce humaine. Pour comprendre ces inquiétudes, il faut d’abord définir ce qu’est l’AGI, ou Intelligence Générale Artificielle.
- L’AGI est considérée comme le modèle ultime d’IA, ayant des fonctions similaires au cerveau humain. Cela lui permettrait théoriquement d’effectuer toutes les tâches que les humains peuvent accomplir.
- L’avancée d’IA comme l’AGI pourrait bouleverser notre modèle économique actuel et les emplois humains.
L’avancement de ce projet n’a pas encore atteint le stade AGI, mais ses réalisations actuelles suscitent l’enthousiasme des chercheurs qui ont alerté les responsables d’OpenAI.
Q*, l’intelligence artificielle qui vise à conquérir les mathématiques
Le projet Q* fait notamment parler de lui pour ses capacités à résoudre des problèmes mathématiques conçus pour les enfants. Bien qu’il s’agisse encore de niveaux élémentaires, cela nécessite un raisonnement plus poussé que ce dont est capable ChatGPT, le célèbre chatbot développé par OpenAI. Cette avancée montre ainsi que les compétences en matière d’IA se rapprochent de celles de l’AGI et inquiètent certains chercheurs et employés d’OpenAI.
L’IA n’est pas encore une AGI, mais ses capacités déjà démontrées peuvent surprendre, notamment en matière de rédaction ou de traduction, avec des possibilités de réponse variées aux mêmes questions. Dans le domaine des mathématiques, il n’y a généralement qu’une seule bonne réponse, ce qui implique que l’IA doit maîtriser des compétences de raisonnement proches de celles de l’intelligence humaine.
Ainsi, la lettre adressée au conseil d’administration aurait joué un rôle clé dans le départ temporaire de Sam Altman, avant son retour rapide à la tête d’OpenAI.
Un avenir à double tranchant pour l’intelligence artificielle
Face à ces avancées et aux inquiétudes soulevées, il est nécessaire de réfléchir aux conséquences de l’utilisation des IA, principalement en ce qui concerne le travail humain et les impacts sur notre société. La question se pose alors : jusqu’où ira-t-on avec les avancées dans le domaine de l’IA et quelles limites faut-il établir pour préserver l’humanité ?
OpenAI a confirmé l’existence du projet Q*, ainsi que la lettre adressée par ses chercheurs au conseil d’administration. Il convient donc désormais de demeurer prudent face à ce projet, tout en étant attentif aux développements futurs d’OpenAI et aux répercussions possibles sur la société.