Le 7 mai 2023 à 11h00 (heure de Pékin), GPT DAO a organisé sur Twitter un espace intitulé « Des vétérans de l’IA explorent le passé et l’avenir de l’AGI ». Cet AMA a réuni des experts chevronnés du domaine pour analyser l’évolution technologique de l’Intelligence Générale Artificielle et discuter de son impact sur notre quotidien et notre futur.
Nous avons également mené, avec un panel d’observateurs médias incluant GPT DAO, ChainDD, Feixiaohao et BroadChain Finance, une discussion approfondie sur les défis et les perspectives futures de la technologie IA.

Présentation des participants :
Invites :
Yang Ning : Business angel, fondateur et associé gérant de Lebo Capital, président fondateur de la China Angel Federation.
Chen Kui : Ancien vice-président mondial de Citrix, ancien cadre dirigeant du groupe R&D Asie-Pacifique de Microsoft, ancien cadre dirigeant chez Cisco et Computer Associates.
Bai Qiang : Membre clé de GPT DAO, entrepreneur-investisseur ayant évolué du Web1 au Web3, diplômé en mathématiques de l’Université des sciences et technologies de Chine et en statistiques de l’Université Purdue, ancien co-responsable chez iFLYTEK.
Modératrice :
Zoie : Membre clé de GPT DAO, responsable de la sous-DAO de Singapour, partenaire investissement chez LK Ventures.
Panel d’observateurs médias :
Cai Jijun (co-moderateur) : Membre clé, co-fondateur de Fast Global.
Daorji : Rédacteur adjoint exécutif pour la région Est de la Chine chez ChainDD.
Sun Yan : Rédacteur en chef exécutif de Feixiaohao.
Wang Hui : Fondateur de BroadChain Finance, initiateur de 1783DAO.
Médias partenaires :
Ti Media, ChainDD, Feixiaohao, Foresight News, BroadChain Finance.
Nous vous proposons une synthèse des points essentiels de cet échange.
Q1 : Geoffrey Hinton, directeur de la recherche en IA chez Google et pionnier des réseaux de neurones, a annoncé sa retraite le 1er mai. Il aurait quitté son poste par inquiétude face aux risques croissants de l’IA générative, craignant une course effrénée et une perte de contrôle. Quelle est votre opinion sur ce sujet ?
Yang Ning :
D’un point de vue philosophique, je crois en la bonté fondamentale de la nature humaine. Nos valeurs et notre humanité ont permis notre prospérité. Les données et connaissances qui alimentent l’IA proviennent des humains ; son développement part donc, à mon sens, d’une intention bienveillante. Tant que les grands acteurs, les penseurs influents et les experts du domaine restent bienveillants, l’IA qu’ils façonnent le sera aussi, à l’image d’un enfant éduqué avec de bonnes valeurs. Je ne pense pas que l’IA échappe à tout contrôle, et une régulation excessive ou des normes éthiques trop contraignantes ne me semblent ni nécessaires ni souhaitables.
Modératrice Zoie :
Si la nature humaine est bonne et que les réseaux de neurones sous-jacents à l’IA ne sont pas entièrement transparents, comment garantir techniquement que les robots IA ne commettront pas de méfaits ? Comment la régulation peut-elle suivre le rythme effréné de l’évolution de l’IA ? Les autres intervenants ont-ils des éléments à ajouter ?
Bai Qiang :
Le discours alarmiste d’Elon Musk est motivé par des intérêts personnels, tout comme celui du président Biden, qui en tire un capital politique. Beaucoup de ceux qui plaident haut et fort pour l’éthique et la gouvernance de l’IA cherchent, dans une certaine mesure, à protéger leurs propres intérêts. La question de la gouvernance de l’IA n’est pas nouvelle ; elle émerge naturellement avec la diffusion de la technologie. Nous ne comprenons pas encore pleinement notre propre cerveau, alors percer les mystères des réseaux de neurones de l’IA est encore plus complexe. La possibilité que l’IA commette des méfaits reste donc, par essence, non falsifiable. Concernant la régulation, les autorités sont souvent en retard sur les innovateurs, ce qui crée souvent un dilemme : trop de régulation étouffe l’innovation, pas assez engendre le chaos.
Yang Ning :
Si j’étais chargé de réguler ce domaine, je reconnaîtrais qu’il s’agit d’un défi de taille, voire d’un casse-tête : faut-il réguler au niveau du code ou des applications ? Cette forme d’« anti-IA » me semble aujourd’hui aussi irrationnelle que le mouvement « anti-vaccin » d’autrefois. Puisque nous ne comprenons pas totalement le fonctionnement de notre cerveau, nous ne pouvons prédire quand il pourrait basculer. Il n’y a donc pas de raison objective de craindre l’IA de façon irraisonnée. Avec le temps, à mesure que les gens s’habitueront à ses avantages, ils l’accepteront mieux et envisageront sereinement une coexistence harmonieuse.
Chen Kui :
Cette tendance est désormais inévitable. L’important, selon moi, est de cultiver une conscience aiguë des risques potentiels. À mesure que les capacités de l’IA se multiplient, il devient plus difficile de prévoir le moment où elles pourraient échapper à tout contrôle. Avant de parler de régulation, nous devons d’abord accepter et comprendre l’IA, tout en identifiant les opportunités qu’elle offre. Je recommande donc de concentrer nos efforts sur l’exploration des opportunités concrètes et sur la manière de les exploiter pour améliorer notre qualité de vie.
Q2 : Midjourney est actuellement l’outil graphique AIGC le plus populaire. Quels sont ses avantages technologiques par rapport à ses concurrents ? Quel avenir pour les outils graphiques AIGC ?
Bai Qiang :
Bien que les technologies de génération d’images par IA aient chacune leurs spécificités, leur succès dépendra essentiellement de la capacité à les utiliser pour créer des contenus captivants. Prenons l’exemple de Pixar. Fondée par George Lucas puis rachetée par Steve Jobs, l’entreprise a d’abord échoué dans le matériel informatique avant de se tourner vers le logiciel. C’est l’arrivée de John Lasseter, avec son talent créatif exceptionnel, qui a tout changé. Son court-métrage primé aux Oscars a conduit Steve Jobs à réorienter la stratégie vers l’animation, aboutissant à un partenariat historique avec Disney et à des films légendaires comme « Toy Story ».
De la même manière, chaque équipe ou outil travaillant sur la génération de contenus IA doit trouver son propre point de rupture stratégique. Une entreprise capable de devenir « la Pixar de l’ère IA » connaîtra le succès, tandis qu’un simple éditeur d’outils risque, à terme, d’être remplacé.
Modératrice Zoie : L’équipe de Midjourney ne compte que 11 personnes, mais son chiffre d’affaires annuel dépasse déjà 100 millions de dollars et sa communauté atteint 15 millions d’utilisateurs. Chen Kui, avec votre expérience de cadre dirigeant dans de grands groupes technologiques, comment pensez-vous que l’essor de l’IA va transformer la structure organisationnelle des entreprises et la gestion des ressources humaines ?
Chen Kui :
L'évolution des entreprises et des talents, ainsi que la transformation industrielle, sont selon moi des enjeux majeurs de notre époque. Pour bien en parler, je voudrais d'abord poser un cadre en évoquant brièvement le modèle évolutif « tripartite » dont a parlé Lu Qi. Ce modèle repose sur trois systèmes interdépendants : le système d'information, le système de modélisation et le système d'action. Ensemble, ils forment le socle du développement de l'intelligence artificielle et de ses progrès technologiques.
1. Le système d'information : C'est l'infrastructure des données. Il collecte, stocke et traite des volumes massifs d'informations. Avec l'expansion d'Internet et de l'Internet des objets (IoT), ces systèmes sont devenus de plus en plus vastes et complexes. Ils alimentent les algorithmes d'apprentissage automatique et d'IA en données brutes, leur permettant d'apprendre et d'en extraire de la valeur.
2. Le système de modélisation : Il désigne les outils d'analyse et de prédiction basés sur les données, comme les algorithmes de machine learning et les modèles d'IA. Ces systèmes exploitent les données du système d'information pour apprendre, via l'entraînement et l'optimisation, les motifs et régularités qu'elles contiennent. Grâce à l'augmentation de la puissance de calcul et aux progrès algorithmiques, ils résolvent désormais des problèmes complexes : reconnaissance d'images, traitement du langage naturel, systèmes de recommandation, etc.
3. Le système d'action : C'est la partie qui traduit les prédictions et analyses du système de modélisation en actions concrètes. Il inclut les dispositifs matériels qui exécutent des tâches : robots, véhicules autonomes, appareils domestiques intelligents. Ce système donne une utilité pratique aux sorties de l'IA.
Le modèle « tripartite » met en lumière les liens étroits entre ces trois systèmes. Il révèle les moteurs fondamentaux du développement de l'IA et le rôle essentiel que chacun joue dans l'innovation et son application. En les combinant, nous pouvons mieux comprendre et relever les défis complexes du monde actuel.
Nous en sommes actuellement à l'étape du système d'information. À mesure que les capacités de raisonnement et de planification du système de modélisation progresseront, nous interagirons avec notre environnement pour atteindre nos objectifs. Dans cette ère numérique, les chemins empruntés par les humains pour s'informer, s'exprimer et agir ressemblent à ceux des systèmes numériques. Les technologies d'IA basées sur l'apprentissage profond et le cloud computing ont nivelé les différences de coûts et de compétences techniques entre grandes entreprises et PME. La concurrence se joue désormais sur les talents, la créativité et l'exécution. Par ailleurs, la collaboration entre grands groupes et petites structures influence positivement le marché. Je prédis que le cloud computing et les grands modèles d'IA deviendront des services omniprésents, offrant d'importantes opportunités aux jeunes pousses innovantes. Cela encouragera plus de jeunes à entreprendre et à se concentrer sur l'application concrète des technologies open source. Globalement, je reste optimiste : l'humanité et l'IA connaîtront une longue période de coexistence. Nous devrons apprendre à communiquer et collaborer efficacement avec elle. À l'avenir, de nombreux métiers seront liés à l'IA : si les postes répétitifs disparaîtront, de nouvelles professions émergeront. En somme, j'ai une vision positive de la transformation industrielle et de l'évolution des carrières.
Q3 : Un grand merci à tous les intervenants pour leurs partages. Nous avons évoqué dès le début la question de la régulation de l'IA. Pour illustrer cela, rappelons cette phrase de George Soros : « L'innovation précède toujours la régulation », que ce soit avec les innovations financières à l'origine de la crise, le Web 3.0 ou l'IA. Avec les progrès rapides de l'intelligence artificielle, beaucoup craignent de voir leur emploi remplacé. Nous avons aussi mentionné l'équipe de Midjourney, qui ne compte que 11 personnes, et les nouvelles formes d'organisation. Notre thème aujourd'hui est « L'IA générale (AGI) : passé et présent ». Parlons librement de ce que nous avons vécu et de ce que nous imaginons pour l'histoire de l'IA.
Yang Ning :
Depuis le milieu du XXᵉ siècle et le test de Turing d'Alan Turing, qui a jeté les bases de l'informatique, on perçoit la différence fondamentale entre l'IA et les ordinateurs traditionnels. Son développement a traversé plusieurs phases, avec l'évolution continue des réseaux de neurones, de l'apprentissage profond et de l'apprentissage par renforcement. Les réseaux de neurones, en imitant la structure du cerveau humain, ont considérablement amélioré le traitement et l'apprentissage à partir des données. Cela a permis des percées majeures en reconnaissance d'images, reconnaissance vocale et traitement du langage naturel.
L'apprentissage profond, une branche des réseaux de neurones, utilise des architectures plus profondes pour traiter des informations complexes et est devenu un sujet central de recherche. L'apprentissage par renforcement, basé sur l'essai-erreur, permet à l'IA d'interagir avec son environnement et d'autres agents pour apprendre à prendre les meilleures décisions. Cette méthode a obtenu des résultats remarquables dans les jeux, comme la victoire d'AlphaGo de DeepMind contre le champion du monde de go, démontrant le potentiel de l'IA en stratégie. Ces dernières années, l'IA générale (AGI) est devenue une priorité de recherche. Elle vise à créer des machines d'une intelligence comparable à l'humain, capables d'interagir naturellement dans divers contextes. Parallèlement, les grands modèles linguistiques pré-entraînés, comme la série GPT d'OpenAI, ont accompli des progrès significatifs, renforçant la compréhension du langage naturel et posant les bases d'une interaction plus profonde entre l'IA et les humains. Selon moi, l'humanité et l'IA peuvent coexister et se renforcer mutuellement. Les applications de l'IA couvrent déjà la santé, l'éducation, la finance et les transports, augmentant considérablement l'efficacité et la qualité de vie.
Le développement de l'intelligence humaine est loin d'avoir atteint son plein potentiel : nous n'utilisons qu'une faible partie de notre cerveau. Si l'IA parvient à stimuler ce potentiel, nous pourrons progresser avec elle, dans une dynamique complémentaire. À l'avenir, les humains deviendront plus intelligents et plus sages, capables de s'adapter à une IA de plus en plus puissante.
Bai Qiang :
Ma position est plutôt pessimiste : le développement d'Internet et de l'IA n'a pas rendu le monde meilleur. Du point de vue d'Internet, la libre circulation de l'information n'a pas empêché les forces dominantes de manipuler les contenus ; au contraire, elle a exacerbé les clivages sociaux. L'AGI connaîtra probablement les mêmes problèmes : si les progrès technologiques permettent à une minorité de s'épanouir, la grande majorité risque de devenir plus stupide et paresseuse. Je pense que dans une société hautement développée, les gens n'ont plus besoin de faire d'efforts, ce qui conduit naturellement à une baisse de leur intelligence. Derrière cela se cachent des questions plus profondes : avec l'arrivée de l'AGI, ne serions-nous pas plus vulnérables ? C'est une interrogation qui mérite toute notre attention.
Chen Kui :
Entre optimisme et pessimisme, je me situe au centre. Bien sûr, dans notre secteur, nous ne devons pas ignorer l'histoire, car l'expérience passée peut nous aider à mieux faire face aux défis. Puisque nous parlons de « passé et présent », rappelons les Trois Lois de la robotique d'Isaac Asimov : première loi, un robot ne peut porter atteinte à un être humain ni, par inaction, permettre qu'un humain soit exposé au danger ; deuxième loi, un robot doit obéir aux ordres humains, sauf s'ils entrent en conflit avec la première loi ; troisième loi, un robot doit protéger son existence tant que cela n'entre pas en conflit avec la première ou la deuxième loi. C'est une conception idéalisée, mais elle est cruciale pour orienter notre réflexion sur le développement de l'IA.
Concernant l'émergence de l'AGI, je pense qu'elle aura un impact considérable sur l'humanité, dont la nature — bénéfique ou néfaste — reste incertaine. Toutefois, je me réjouis qu'OpenAI ait formulé trois principes directeurs.
1. Bénéfices étendus : Faire en sorte que l'AGI ait un impact positif sur l'humanité, sans porter atteinte aux humains ni concentrer excessivement le pouvoir.
2. Sécurité à long terme : Si d'autres projets semblent plus prometteurs qu'OpenAI pour développer une AGI sûre, OpenAI coopérera avec eux plutôt que de les concurrencer.
3. Leadership technologique : Pour exercer une influence sur la sécurité et l'impact sociétal, OpenAI continuera à réaliser des percées majeures, assurant son rôle dans la recherche et l'application de l'AGI.
Ces principes permettent à l'humanité de prospérer au maximum, tout en garantissant que les bénéfices de l'AGI soient largement partagés et nous aident à faire face aux risques. Bien que l'avenir soit incertain, je crois que nous devons garder espoir, adopter une attitude proactive face au changement et continuer à chercher des opportunités. Enfin, profitons pleinement des moments merveilleux de la vie, jusqu'à notre ultime fête.
Échanges avec les médias
Sun Yan, rédacteur en chef adjoint de Feixiaohao :
Je ne suis ni particulièrement optimiste ni pessimiste face à l'IA, mais je partage le sentiment de beaucoup : une certaine forme d'aveuglement ou d'ignorance. J'ai testé des plateformes comme ChatGPT et Midjourney sans ressentir un apport significatif. Je ne les utilise pas non plus dans mon travail médiatique, pour préserver ma singularité. Je ne perçois pas fortement les avantages tangibles de l'IA ou de l'AGI. Comme dans le film « 2001 : L'Odyssée de l'espace », les descriptions d'époque ne me choquent plus aujourd'hui, car la réalité semble souvent plus prosaïque, moins magique ou high-tech que l'imaginaire. Ainsi, je me sens ni pessimiste ni optimiste, simplement comme un individu ordinaire parmi des millions d'autres.
Wang Hui, fondateur de BroadChain Finance et de 1783DAO :
Après avoir écouté les interventions, j'aimerais poser plusieurs questions à M. Yang. Du point de vue de la culture orientale — par exemple, le principe selon lequel « la nature humaine est bonne à l'origine » — on pourrait déduire que l'IA est également intrinsèquement bonne. Or, son développement est aujourd'hui dominé par les géants occidentaux. Existe-t-il, dans la culture occidentale, une tradition similaire à celle de « la nature humaine est bonne à l'origine » ? Et comment envisage-t-on, depuis la perspective culturelle occidentale, la relation future entre l'IA et l'humanité ?
Yang Ning :
Votre question est excellente. L'humanité partage une nature commune et universelle : des qualités comme l'amour, la coopération et l'empathie sont similaires, quelle que soit la culture ou la manière dont elles s'expriment. C'est pourquoi je m'oppose au concept de « forêt sombre » présenté dans « Le problème à trois corps » : les humains ne sont pas des bêtes sauvages, mais des entités capables de former des équipes et des organisations. Lors de l'entraînement des modèles de machine learning, la qualité des données est primordiale, car la performance du modèle en dépend directement. En outre, les développeurs d'IA exercent une influence considérable, puisque l'« humanité » des machines provient directement des êtres humains.
Wang Hui, fondateur de BroadChain Finance et de 1783DAO :
J’aimerais revenir vers M. Bai Qiang sur un point : vous avez évoqué la possible disparition de nombreux produits « outils ». Cela signifie-t-il que ChatGPT pourrait lui aussi disparaître ? Si oui, quels types de projets dans le domaine de l’IA sont, selon vous, voués à durer sur le long terme ?
Bai Qiang :
À mon sens, le fondement d’OpenAI réside dans ses grands modèles de langage (LLM), et non dans un produit comme ChatGPT. Même si ce type d’outil venait à disparaître, OpenAI conserverait un avantage décisif grâce à l’immensité de ses données. Pour se démarquer, les entreprises doivent réussir leur transformation stratégique pour devenir des créateurs de contenu adaptés à l’ère de l’AGI. Prenons l’exemple de Pixar : à l’origine une entreprise technologique, elle est devenue une référence en matière de création de contenus primés. Aujourd’hui, nous devons repenser les modèles et produits à travers le prisme de l’IA, sans nous cantonner aux schémas du passé. Il s’agit de redéfinir chaque aspect de cette nouvelle ère pour y déceler des opportunités entrepreneuriales et d’investissement. C’est en adoptant cette perspective que de nouvelles possibilités émergeront.
Dorji, Rédacteur en chef adjoint exécutif pour la région de Chine de l’Est chez ChainDD :
Ma question porte sur les critères d’évaluation de l’AGI. Le test de Turing doit-il rester la référence, ou faut-il imaginer de nouveaux protocoles pour évaluer rigoureusement une intelligence générale artificielle ?
Yang Ning :
L’évaluation de l’AGI peut s’articuler autour de deux axes : le degré d’intelligence et le degré « psychologique ». Pour le premier, le test de Turing classique est aujourd’hui dépassé. Il faut développer de nouveaux protocoles, comme des tests de QI adaptés, permettant de mesurer précisément les capacités de l’IA. Ces tests doivent éviter tout biais d’entraînement spécifique. Pour le second axe, on pourrait s’inspirer des tests psychologiques humains pour concevoir des évaluations permettant de mieux comprendre l’« état mental » des systèmes. Ces deux pistes sont cruciales et méritent des recherches approfondies de la part des universités et instituts scientifiques.
Dorji, Rédacteur en chef adjoint exécutif pour la région de Chine de l’Est chez ChainDD :
Merci, M. Yang. J’ai une autre question sur l’éthique de l’IA. Lorsqu’on délègue à l’IA des fonctions sociales et des responsabilités, comment garantir une prise en compte correcte des enjeux éthiques ? Prenons la conduite autonome : les progrès de l’IA ouvrent des perspectives mais posent aussi des défis, comme la gestion d’instructions complexes et de données multimodales. Comment concilier l’innovation technologique et une gestion rigoureuse de l’éthique ? Comment former ces systèmes en ce sens ?
Yang Ning :
La question dépasse l’éthique ; elle est avant tout juridique. Elle renvoie à la distinction entre algorithmes déterministes et probabilistes. Un algorithme déterministe garantit que, face à une situation identique, la machine prendra toujours la même décision. À l’inverse, un système basé sur l’IA repose souvent sur une distribution probabiliste, ce qui peut conduire à des décisions différentes dans des circonstances similaires.
C’est pourquoi, à l’échelle mondiale, aucun système décisionnel probabiliste n’est actuellement autorisé à fonctionner de manière autonome dans des contextes critiques. La question de la responsabilité légale est centrale. En cas d’accident avec un véhicule autonome, qui est responsable ? S’il y a un conducteur, c’est lui. Si le véhicule est vide, c’est la société qui fournit le service.
Aujourd’hui, nous n’avons pas suffisamment confiance en l’IA pour lui confier des décisions engageant la vie ou causant des dommages graves. Dans l’aérospatial, l’Administration de l’Aviation Civile n’autorise que des décisions humaines ou des processus automatisés basés sur des algorithmes déterministes – garantissant qu’une même entrée produit toujours la même sortie. C’est pour cette raison que nos projets de drones autonomes utilisent exclusivement ce type d’algorithmes, une condition sine qua non pour obtenir les autorisations.
Voici le résumé de nos riches échanges lors de ce Twitter Space. Nous espérons que ces contenus vous ont été utiles et inspirants. GPT DAO est la communauté la plus rigoureuse et technique au monde dédiée au partage d’informations sur l’AGI, spécialisée dans des analyses approfondies et pointues – une référence incontournable.
Suivez le compte Twitter de GPTDAO pour ne rien manquer de nos actualités et événements.
Compte Twitter en chinois : @GPTDAOCN
Compte Twitter en anglais : @GPTDAOGLOBAL
