Les avancées récentes en intelligence artificielle suscitent des inquiétudes, car des modèles tels que ChatGPT sont extrêmement performants, ce qui fait craindre qu’ils puissent remplacer les travailleurs humains. Une étude américaine récente a même suggéré que cela avait déjà commencé. Cependant, Sam Altman, PDG d’Open AI, a une opinion différente, selon lui, à l’heure actuelle, l’IA n’est pas encore capable de remplacer les humains.
Lors d’une interview accordée à Economic Times lors de son voyage en Inde, Sam Altman a discuté l’impact de ChatGPT sur le marché du travail. Il a souligné que le système actuel était efficace pour exécuter des tâches spécifiques, mais qu’il n’était pas du tout compétent pour accomplir un travail dans son intégralité.
Donc, selon Sam Altman, ChatGPT entraîne plutôt une évolution du travail plutôt qu’une substitution. Pour illustrer cette idée, il a utilisé l’exemple du codage informatique. Le travail a évolué de sorte qu’un développeur travaille maintenant comme s’il supervisait une équipe de développeurs “extrêmement” novices qui se limitent à l’exécution de tâches. L’humain reste essentiel pour assembler l’ensemble des tâches et garantir la cohérence du travail.
Bien sûr, il est possible que les choses changent à l’avenir si les systèmes d’IA deviennent plus avancés. Cependant, Sam Altman rassure également à ce sujet. Il mentionne que le successeur de GPT-4, c’est-à-dire une version améliorée de ChatGPT, n’est pas encore en cours de développement. Lors de son interview avec l’Economic Times, le PDG d’Open AI a expliqué qu’il reste encore beaucoup de travail à accomplir avant de se lancer dans ce nouveau projet.
Sam Altman a déclaré : “Nous travaillons sur les nouvelles idées dont nous pensons avoir besoin pour cela, mais nous ne sommes certainement pas près de commencer”. Cette déclaration pourrait apaiser les inquiétudes d’Elon Musk et des cosignataires de sa demande de moratoire sur la course à l’IA.
En effet, Sam Altman, qui est conscient de ces risques, fait partie des signataires d’une déclaration affirmant : “L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale, au même titre que d’autres risques d’ampleur sociétale tels que les pandémies et la guerre nucléaire”. Cette déclaration, qui a été intentionnellement concise pour éviter les divergences, a également été signée par des responsables de Google et de Microsoft.