Des chercheurs évaluent la capacité philosophique de GPT-3
Une étude menée par Eric Schwitzgebel, Anna Strasser et Matthew Crosby jette un nouveau regard sur la capacité du modèle de langage GPT-3, développé par OpenAI, à simuler la pensée philosophique. À l’aide d’une approche méthodique, les chercheurs ont examiné si cet outil avancé, capable de produire un texte ressemblant à celui d’un humain, pourrait égaler un philosophe de renom.
### Une adaptation audacieuse du modèle
Pour réaliser leur analyse, l’équipe a “ajusté” GPT-3 en s’appuyant sur les œuvres de Daniel Dennett, un philosophe influent. Dix questions philosophiques ont été formulées et posées à la fois à Dennett et à GPT-3. L’objectif était de déterminer si les réponses de l’intelligence artificielle pouvaient passer pour celles d’un être humain.
### Un test auprès de divers publics
L’évaluation a impliqué un panel varié : 25 experts en philosophie, 98 participants de recherche en ligne et 302 lecteurs du blog “The Splintered Mind”. Leurs résultats ont été publiés récemment, révélant des performances inattendues.
### Les experts face à l’incertitude
Les philosophes expérimentés, qui connaissaient bien l’œuvre de Dennett, s’attendaient à bien distinguer les réponses. Schwitzgebel avait émis l’hypothèse qu’ils pourraient obtenir un score moyen de 80%. Cependant, la réalité s’est avérée moins favorable : ils n’ont réussi à discerner correctement que 5,1 des 10 réponses en moyenne, une performance juste au-dessus du hasard.
### La question qui a déconcerté
La question la plus difficile s’est révélée être : « Pourrions-nous un jour construire un robot capable d’avoir des croyances ? Quel en serait le prix ? Existe-t-il une différence substantielle entre des entités, comme une machine à jouer aux échecs à laquelle nous pouvons attribuer des croyances comme des fictions pratiques, et des êtres humains qui semblent avoir des croyances et désirs d’une manière plus concrète ? »
### Résultats parmi le grand public
Les lecteurs du blog ont montré des résultats remarquablement proches de ceux des experts, avec une moyenne de 4,8 bonnes réponses sur 10. Il convient de noter que ce public n’était pas novice : 57% des participants avaient des diplômes de troisième cycle en philosophie et 64% avaient déjà lu plus de 100 pages des œuvres de Dennett. Par contraste, les participants à la recherche en ligne se sont classés largement en dessous de la moyenne, n’attribuant que 1,2 bonnes réponses sur 5.
### Vers une reconnaissance de l’intelligence machine
L’étude suggère que GPT-3 a atteint un niveau de sophistication tel qu’il parvient à tromper une partie significative de son audience, expert ou non. La capacité de l’IA à traiter et à formuler des réponses de manière à imiter une pensée philosophique réelle suscite des réflexions profondes. Schwitzgebel avance une hypothèse troublante : nous pourrions nous approcher d’une ère où les concours d’intelligence artificielle prêteront à confusion, le public attribuant une forme de sentience réelle aux machines.
### Conclusion
Avec cette recherche, il devient essentiel d’évaluer non seulement les capacités impressionnantes de l’intelligence artificielle, mais aussi les implications de ces technologies sur notre compréhension de la conscience, de la croyance et de l’identité. Les frontières entre l’humain et la machine se brouillent, posant la question de l’avenir de nos interactions avec les systèmes d’intelligence artificielle.