IA

Une IA générale déjà bien avancée en développement chez OpenAI ?

Des chercheurs d’OpenAI ont envoyé un courrier au conseil d’administration de l’entreprise dans lequel ils évoquent le développement d’un puissant modèle d'IA, baptisé Q*, qui pourrait représenter un risque pour l’humanité. Ces travaux expliqueraient en partie le licenciement de Sam Altman, avant d’être rappelé quelques jours plus tard.

Les raisons exactes qui ont poussé le conseil d’administration d’OpenAI à licencier (pendant quelques jours) son PDG et fondateur commencent à émerger. Parmi elles, un scénario à la Terminator. D’après Reuters, un groupe de chercheurs au sein de l’entreprise aurait envoyé une lettre au conseil d’administration en mentionnant une puissante intelligence artificielle générale (AGI) baptisée Q*, pour Q Star.

Mais alors, qu’est-ce qui pose problème ? Les chercheurs se sont inquiétés d’un modèle « suffisamment puissant pour détruire l’humanité », sur lequel le conseil d’administration devrait garder un œil attentif concernant son rythme de développement.

Une percée technologique au niveau primaire

Cette IA évoluerait 10 fois plus rapidement que les modèles actuels. Comme un être humain, elle serait en mesure de comprendre et résoudre des problèmes mathématiques sans avoir à apprendre de données, comme c’est le cas pour les IA génératives telles que ChatGPT ou Bard. Il s’agirait là d’une percée technologique sans précédent, ni plus ni moins.

À noter toutefois que, selon les sources de Reuters, Q* n'est capable de résoudre des problèmes mathématiques du niveau d’élève de primaire uniquement. Des résultats optimistes, d’après les chercheurs, mais on est donc encore loin du T1000 qui frappe à notre porte.

La lettre aurait également évoqué les travaux d’une équipe de scientifiques travaillant sur l’optimisation des modèles d'IA existants afin d’améliorer leur raisonnement et d'effectuer des travaux scientifiques.