Twitter Space回顾 | AI老炮儿深挖AGI前世今生

Twitter Space-Rückblick | AI-Veteranen tauchen tief in die Geschichte und Herkunft von AGI ein

BroadChainBroadChain09.05.2023, 19:07
Dieser Inhalt wurde von KI übersetzt
Zusammenfassung

Das Thema AI Governance ist lediglich eine Fortsetzung der jahrelangen, breiten Verbreitung von KI-Technologie und stellt keine neue Diskussion dar.

Am Sonntag, den 7. Mai 2023, um 11:00 Uhr Peking-Zeit, veranstaltete die GPT DAO auf Twitter einen Space zum Thema „KI-Veteranen analysieren Vergangenheit und Zukunft der AGI“. Zu dieser AMA wurden namhafte Experten aus dem Bereich der Künstlichen Intelligenz eingeladen, um die Technologie der Allgemeinen Künstlichen Intelligenz (AGI) im Detail zu erläutern und die Auswirkungen der KI auf unser Leben und unsere Zukunft zu diskutieren.

Gemeinsam mit einer Medienbeobachtergruppe, zu der GPT DAO, ChainDD, Feixiaohao und BroadChain Finance gehörten, wurden außerdem Fragen zu den künftigen Auswirkungen der KI-Technologie und den damit verbundenen Herausforderungen erörtert.

image.png

Teilnehmer des Twitter Space:

Gäste:

Yang Ning: Risikokapitalgeber, Gründungspartner von Lebo Capital und Gründungspräsident der China Angel Federation

Chen Kui: Ehemaliger Senior Vice President von Citrix Worldwide, ehemaliger leitender Manager der Microsoft Asia-Pacific Research & Development Group sowie ehemaliger leitender Manager bei Cisco und Computer Associates

Bai Qiang: Kernmitglied der GPT DAO, Unternehmer und Investor mit Erfahrung von Web1 bis Web3, Absolvent der mathematischen Fakultät der University of Science and Technology of China (USTC) und der Fakultät für Mathematische Statistik der Purdue University (USA), ehemals Co-Leiter bei iFLYTEK

Moderation:

Zoie: Kernmitglied der GPT DAO, Leiterin des Singapore Sub DAO und Venture Partner bei LK Ventures

Medienbeobachtergruppe:

Cai Jijun (Co-Moderator): Kernmitglied und Mitbegründer von Fast Global

Da’erji: Stellvertretender Chefredakteur für Ostchina bei ChainDD

Sun Yan: Geschäftsführender Chefredakteur von Feixiaohao

Wang Hui: Gründer von BroadChain Finance und Initiator der 1783DAO

Unterstützende Medien:

Ti Media, ChainDD, Feixiaohao, Foresight News, BroadChain Finance

Die wichtigsten Inhalte dieser AMA haben wir für unsere Leser zusammengefasst.

Frage 1: Kürzlich, am 1. Mai, kündigte Geoffrey Hinton, der Direktor des Google AI Research Lab und ein Pionier neuronaler Netze, überraschend seinen Rücktritt an. Als Grund nannte er seine Besorgnis über generative KI: Er fürchtet, dass KI-Systeme zunehmend gefährlich werden. Ohne angemessene Regulierung werde dieser Wettlauf kein Ende finden, und die KI-Entwicklung werde weit schneller voranschreiten, als wir es uns vorstellen können – bis hin zum völligen Kontrollverlust. Wie bewerten Sie dieses Problem?

Yang Ning:

Philosophisch betrachtet ist die menschliche Natur im Kern gut. Unsere zentralen Werte und unsere Menschlichkeit haben uns zu einer der fortschrittlichsten Spezies auf der Erde gemacht. Die Trainingsdaten und das Wissen, die Roboter und KI-Systeme nutzen, stammen alle vom Menschen. Daher glaube ich, dass KI von einer grundsätzlich positiven Basis aus entwickelt wird. Solange große Unternehmen, führende Entwickler und KI-Experten ethisch handeln, wird auch die von ihnen geschaffene KI ethisch sein – ähnlich wie Kinder, die sich an die Werte halten, die wir ihnen vermitteln. Deshalb glaube ich nicht, dass KI außer Kontrolle geraten wird, und sehe weder Notwendigkeit noch Nutzen in übermäßiger Regulierung oder ethischen Vorschriften.

Moderatorin Zoie:

Wenn die menschliche Natur gut ist und neuronale Netze der KI-Technologie nicht vollständig logisch nachvollziehbar sind – wie können wir dann technisch sicherstellen, dass KI-Roboter keinen Schaden anrichten? Und wie wird die Regulierung auf die KI-Entwicklung reagieren? Haben andere Gäste hierzu Ergänzungen?

Bai Qiang:

Erstens verfolgt Elon Musk mit seiner Verbreitung von KI-Ängsten durchaus eigennützige Interessen; ebenso nutzt Präsident Biden das Thema als politisches Kapital. Auch viele andere, die lautstark KI-Ethik und Governance fordern, schützen letztlich ihre eigenen Interessen. Bereits vor Jahren entwickelten wir bei iFLYTEK KI-basierte Sprachwerkzeuge – das Thema „KI-Governance“ ist lediglich eine natürliche Weiterentwicklung der langjährigen, breiten Akzeptanz von KI-Technologien und nichts grundlegend Neues. Da wir unser eigenes Gehirn nicht vollständig verstehen, ist es noch weniger möglich, neuronale Netze der KI vollständig zu entschlüsseln. Damit bleibt die Frage, ob KI Schaden anrichten könnte, prinzipiell unbeantwortbar. Regulierungsbehörden hinken den Innovatoren meist hinterher – daher führt Regulierung oft entweder zu Stillstand („Regulierung erstickt Innovation“) oder zu Chaos („Fehlende Regulierung führt zu Unordnung“).

Yang Ning:

Wenn ich selbst als Regulierungsbehörde agieren müsste, fände ich das äußerst schwierig – und wüsste nicht, wo ich ansetzen sollte: Sollte man auf Codeebene regulieren oder auf Anwendungsebene? Diese Anti-KI-Stimmung erinnert mich stark an die frühere Anti-Impf-Bewegung in den USA. Wenn wir unser eigenes Gehirn nicht vollständig verstehen und auch nicht vorhersagen können, wann es in bestimmten Situationen „durchdreht“, dann gibt es keinen Grund, KI grundlos zu fürchten. Sobald sich Menschen an die Vorteile der KI gewöhnt haben, werden sie sie zunehmend akzeptieren und eine Koexistenz zwischen Mensch und KI als selbstverständlich betrachten.

Chen Kui:

Dieser Trend ist nicht mehr aufzuhalten. Entscheidend ist jedoch, ein Bewusstsein für potenzielle Krisen zu entwickeln: Denn je mehr sich die Fähigkeiten der KI entfalten, desto ungewisser wird der Zeitpunkt, an dem sie möglicherweise außer Kontrolle gerät – und sogar ohne Vorwarnung zur Gefahr für die Menschheit werden könnte. Bevor wir Regulierungsfragen lösen, müssen wir KI zunächst akzeptieren, verstehen und ihre Chancen erkennen. Daher sollten wir uns darauf konzentrieren, welche Chancen KI uns bietet und wie wir sie nutzen können, um unser Leben in Zukunft zu verbessern.

Frage 2: Midjourney ist derzeit das beliebteste AIGC-Bildgenerierungstool. Was sind seine technischen Vorteile gegenüber der Konkurrenz? Und wie sehen die Zukunftsperspektiven für AIGC-Bildgenerierungstools aus?

Bai Qiang:

Auch wenn sich die aktuellen KI-basierten Bildgenerierungstechnologien unterscheiden – sei es Midjourney oder andere AIGC-Tools – entscheidet letztlich nicht die Technologie allein über den Erfolg, sondern vielmehr, wie diese Werkzeuge genutzt werden, um fesselnde Inhalte zu erschaffen. Ein gutes Beispiel ist Pixar Animation Studios: Pixar begann als Studio, das von George Lucas gegründet und später von Steve Jobs übernommen wurde. Jobs positionierte das Unternehmen zunächst als Hardware-Hersteller, scheiterte damit und wandte sich stattdessen der Software zu. In dieser Phase stieß John Lasseter zu Pixar und schuf mit seiner herausragenden Kompetenz in Sachen Content einen Oscar-prämierten, computergenerierten Animationskurzfilm. Dieser Erfolg veranlasste Jobs, die Unternehmensstrategie neu auszurichten, was schließlich in der erfolgreichen Produktion von Animationsfilmen wie „Toy Story“ mit Disney mündete – so wurde Pixar zu einem weltweit führenden Animationsstudio.

Genau wie Pixar durch John Lassetters außergewöhnliche Content-Kompetenz von einem schwierigen Hardware- und Software-Startup zu einem weltweit führenden Animationsstudio wurde, benötigt jedes Team oder jedes Tool, das heute AIGC-Inhalte erstellt, einen ähnlichen Durchbruch. Ein Unternehmen, das in der KI-Ära „der neue Pixar“ wird, hat Erfolg; reine Tool-Anbieter hingegen laufen Gefahr, langfristig verdrängt zu werden.

Moderatorin Zoie: Das Midjourney-Team besteht aus nur 11 Mitarbeitern, erwirtschaftet bereits über 100 Millionen US-Dollar Jahresumsatz und zählt mittlerweile 15 Millionen Community-Mitglieder. Angesichts der rasanten KI-Entwicklung möchte ich besonders Herrn Chen Kui fragen: Sie waren bei großen Technologieunternehmen tätig – wie werden sich Ihrer Meinung nach Unternehmen und deren Personalstrukturen im Zuge der KI-Entwicklung künftig verändern?

Chen Kui:

Meiner Meinung nach stehen derzeit der Wandel von Unternehmen und Talenten sowie der industrielle Umbruch im Mittelpunkt. Bevor ich darauf eingehe, möchte ich kurz auf das sogenannte „Drei-in-Eins“-Entwicklungsmodell eingehen, das Lu Qi in seiner Rede erwähnt hat. Dieses Modell umfasst das Informationssystem, das Modellsystem und das Handlungssystem. Im Zuge der KI-Entwicklung sind diese drei Systeme eng miteinander verflochten und treiben gemeinsam den technologischen Fortschritt voran.

1. Informationssystem: Es bildet die Dateninfrastruktur und ist für die Erfassung, Speicherung und Verarbeitung großer Datenmengen verantwortlich. Mit der Verbreitung des Internets und des Internet of Things (IoT) sind Informationssysteme immer umfangreicher und komplexer geworden. Sie stellen maschinellen Lernalgorithmen und KI-Systemen umfangreiche Datenquellen zur Verfügung, aus denen diese lernen und wertvolle Informationen extrahieren können.

2. Modellsystem: Dieses System umfasst datenbasierte Analyse- und Vorhersagewerkzeuge wie maschinelle Lernalgorithmen und KI-Modelle. Es nutzt die vom Informationssystem bereitgestellten Daten, um durch Training und Optimierung Muster und Gesetzmäßigkeiten zu erkennen. Mit steigender Rechenleistung und fortschreitender Algorithmusentwicklung wird das Modellsystem zunehmend in der Lage, komplexe Aufgaben wie Bilderkennung, natürliche Sprachverarbeitung (NLP) oder Empfehlungssysteme zu bewältigen.

3. Handlungssystem: Hier werden die Vorhersagen und Analysen des Modellsystems in konkrete Handlungen umgesetzt. Dazu gehören Hardwaregeräte wie Roboter, autonome Fahrzeuge oder Smart-Home-Geräte. Das Handlungssystem verwandelt die Ausgaben des Modellsystems in praktische Anwendungen und ermöglicht so den Einsatz von KI in der realen Welt.

Das „Drei-in-Eins“-Modell betont die enge Verknüpfung von Informations-, Modell- und Handlungssystem. Es zeigt die zentralen Treiber der KI-Entwicklung und die entscheidende Rolle dieser Systeme für technologische Innovation und praktische Anwendung. Durch ihr Zusammenspiel können wir die komplexen Herausforderungen unserer Zeit besser verstehen und bewältigen.

Derzeit befinden wir uns noch in der Phase des Informationssystems. Mit zunehmender Fähigkeit des Modellsystems zur Schlussfolgerung und Planung werden wir jedoch immer stärker mit unserer Umwelt interagieren, um menschliche Ziele zu erreichen. In dieser digitalen Ära ähnelt der Weg, auf dem Menschen Informationen beschaffen, kommunizieren und handeln, stark dem digitaler Systeme. Durch Deep-Learning-KI und Cloud-Computing sind die Kosten- und Technologieunterschiede zwischen Großunternehmen und KMUs weitgehend verschwunden; der Wettbewerb konzentriert sich nun auf Talente, Kreativität und Umsetzungskraft. Die Zusammenarbeit zwischen Großunternehmen und KMUs wirkt sich zudem positiv auf den Markt aus. Daher gehe ich davon aus, dass Cloud-Computing und große KI-Modelle zu allgegenwärtigen Dienstleistungen werden und innovativen Kleinstunternehmen enorme Chancen eröffnen. Dies wird weitere junge Gründer motivieren, eigene Unternehmen zu gründen und sich auf die praktische Anwendung offener Technologien (Open Source) zu konzentrieren. Ich blicke insgesamt optimistisch in die Zukunft: Mensch und KI werden über einen langen Zeitraum koexistieren. In dieser Phase müssen wir lernen, mit KI zu kommunizieren und effektiv zusammenzuarbeiten. Viele Berufsfelder werden künftig eng mit KI verknüpft sein; zwar könnten zahlreiche standardisierte Tätigkeiten wegfallen, doch entstehen zugleich auch neue Berufe. Insgesamt halte ich die bevorstehenden industriellen Transformationen und beruflichen Entwicklungen für vielversprechend.

Frage 3: Vielen Dank an alle Gäste für Ihre spannenden Beiträge. Zu Beginn sprachen wir bereits über die Regulierung von KI. Hierzu passt ein Zitat von George Soros: „Innovation läuft stets der Regulierung voraus“ – sei es bei Finanzinnovationen, die früher zu einer weltweiten Krise führten, bei Web 3.0 oder bei der KI. Angesichts der rasanten Entwicklung der KI befürchten viele, dass ihre Arbeitsplätze ersetzt werden. Wir haben bereits das Beispiel von Midjourney mit seinem Team aus nur elf Mitarbeitern sowie neue Unternehmensformen diskutiert. Unser heutiges Thema lautet „Die Geschichte der AGI – von ihren Ursprüngen bis heute“. Lassen Sie uns gemeinsam darüber nachdenken, was wir bisher erlebt haben – und was die Zukunft bringen könnte.

Yang Ning:

Seit Alan Turing Mitte des 20. Jahrhunderts den Turing-Test formulierte und damit die Grundlagen der Informatik legte, war klar, dass KI sich grundlegend von herkömmlichen Computern unterscheidet. Die KI-Entwicklung durchlief verschiedene Phasen, darunter die kontinuierliche Weiterentwicklung neuronaler Netze, des Deep Learnings und des Reinforcement Learnings. Neuronale Netze ahmen die Struktur des menschlichen Gehirns nach und verbesserten die Fähigkeit zur Datenverarbeitung und zum Lernen erheblich. Diese Methode erzielte bahnbrechende Erfolge in Bereichen wie Bilderkennung, Spracherkennung und natürlicher Sprachverarbeitung (NLP).

Deep Learning entwickelte sich als Teilgebiet neuronaler Netze weiter, indem tiefere Netzwerkarchitekturen zur Verarbeitung komplexerer Informationen eingesetzt wurden, und wurde so zu einem zentralen Forschungsthema. Reinforcement Learning hingegen ist ein lernbasiertes Verfahren, das auf Versuch und Irrtung beruht und KI-Systemen ermöglicht, in ihrer Umgebung zu interagieren und optimale Entscheidungen zu lernen. Diese Methode erzielte beeindruckende Ergebnisse im Spielebereich – etwa als DeepMinds AlphaGo den Weltmeister im Go besiegte – und demonstrierte das enorme Potenzial der KI für strategische Entscheidungen. In jüngster Zeit steht die AGI (Artificial General Intelligence) im Fokus. Ziel ist es, Maschinen mit menschenähnlicher Intelligenz zu erschaffen, die in unterschiedlichsten Situationen natürlich mit Menschen interagieren können. Gleichzeitig haben große vortrainierte Sprachmodelle wie OpenAIs GPT-Serie bedeutende Fortschritte erzielt und die Fähigkeit von Maschinen zur Verständigung in natürlicher Sprache deutlich gesteigert – eine wesentliche Grundlage für eine tiefere Kommunikation zwischen Mensch und KI. Meiner Ansicht nach können Mensch und KI koexistieren und sich gegenseitig befruchten. Die KI kommt bereits in Medizin, Bildung, Finanzwesen, Verkehr und vielen anderen Bereichen zum Einsatz und trägt maßgeblich zur Steigerung der Produktivität und zur Verbesserung der Lebensqualität bei.

Unsere menschliche Intelligenz ist bei Weitem noch nicht vollständig erschlossen – wir nutzen derzeit nur einen sehr geringen Teil unseres Gehirns. Sollte die KI uns dabei helfen können, unser volles geistiges Potenzial zu entfalten, könnten wir gemeinsam mit ihr voranschreiten – ergänzend und wechselseitig fördernd. In Zukunft werden wir intelligenter und weiser werden und somit in der Lage sein, mit immer leistungsfähigerer KI Schritt zu halten.

Bai Qiang:

Ich vertrete eine eher pessimistische Sicht: Weder das Internet noch die KI haben die Welt tatsächlich verbessert. Zwar hat das Internet die Informationsfreiheit erhöht, doch konnte es die Manipulation durch dominante Kräfte nicht verhindern – im Gegenteil, es hat gesellschaftliche Spaltungen sogar noch verschärft. Dasselbe Problem wird auch bei der AGI auftreten. Obwohl technologischer Fortschritt einige Menschen leistungsfähiger macht, werden die meisten Menschen zunehmend unintelligenter und fauler. Meiner Ansicht nach liegt das daran, dass Menschen in einer hochentwickelten Gesellschaft nicht mehr gezwungen sind, sich anzustrengen – und daher zwangsläufig „dümmer“ werden. Das wirft tiefgreifendere Fragen auf: Werden wir mit dem Aufkommen der AGI womöglich noch verletzlicher? Das ist zweifellos eine Frage, die uns nachdenklich stimmen sollte.

Chen Kui:

Zwischen Optimismus und Pessimismus bevorzuge ich eine mittlere Position. Natürlich sollten wir in unserem Feld die Geschichte nicht ignorieren – sie hilft uns, gegenwärtige und zukünftige Herausforderungen besser zu meistern. Da unser Thema heute „Die Geschichte der AGI“ ist, werfen wir einen kurzen Blick auf Asimovs „Drei Gesetze der Robotik“: Erstens darf ein Roboter einem Menschen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird; zweitens muss ein Roboter den Befehlen eines Menschen gehorchen, es sei denn, dieser Befehl widerspräche dem ersten Gesetz; drittens muss ein Roboter sich selbst schützen, es sei denn, dieser Schutz widerspräche dem ersten oder zweiten Gesetz. Das ist eine äußerst idealistische Vorstellung – doch sie ist bedeutsam für unsere Reflexion über den Entwicklungspfad der KI.

Das Erscheinen der AGI wird zweifellos tiefgreifende Auswirkungen auf die Menschheit haben – ob positiv oder negativ, bleibt jedoch ungewiss. Ich begrüße es sehr, dass OpenAI drei Grundsätze formuliert hat:

1. Breite Nutzenmaximierung: Ziel ist es, positive Auswirkungen der AGI auf die Menschheit sicherzustellen und zu gewährleisten, dass deren Entwicklung weder der Menschheit schadet noch zu einer Konzentration von Macht führt.

2. Langfristige Sicherheit: Falls andere Projekte größere Chancen haben, eine sichere AGI zu realisieren, wird OpenAI mit ihnen kooperieren – statt zu konkurrieren.

3. Technologische Führung: Um substantielle Wirkung im Bereich Sicherheit und gesellschaftlicher Auswirkungen zu erzielen, wird OpenAI weiterhin bedeutende Durchbrüche erzielen, um seinen Einfluss auf Forschung und Anwendung der AGI zu sichern.

Diese Prinzipien können dazu beitragen, dass die Menschheit maximal florieren kann, und gewährleisten gleichzeitig, dass die Vorteile der AGI breit gestreut werden und uns helfen, Risiken zu bewältigen. Auch wenn die Zukunft ungewiss ist, glaube ich fest daran, dass wir Hoffnung bewahren, aktiv auf Veränderungen reagieren und ständig nach neuen Chancen suchen sollten. Abschließend sollten wir die schönen Momente des Lebens genießen – bis wir am Ende unseren letzten großen Feiertag feiern.

Interaktion mit der Medienbeobachtungsgruppe

Sun Yan, stellvertretender Chefredakteur von Feixiaohao:

Ich persönlich bin weder besonders optimistisch noch pessimistisch gegenüber der KI – vielmehr teile ich die weit verbreitete Haltung der Unwissenheit oder des Unverständnisses. Ich habe bereits einige intelligente Plattformen wie ChatGPT und Midjourney ausprobiert, doch spüre ich bislang kaum einen nennenswerten Nutzen. Ich nutze sie auch nicht auf Medienplattformen, da dies meine persönliche Einzigartigkeit beeinträchtigen würde. Mir ist bislang kein klarer, greifbarer Nutzen durch KI oder AGI bewusst geworden. Wie im Film „2001: Odyssee im Weltraum“ – damals wirkte die Darstellung nicht besonders beeindruckend auf mich, weil die Realität oft nüchterner ist, als man sie sich in der Fantasie vorstellt: weniger magisch, weniger hochtechnologisch. Daher empfinde ich momentan weder Pessimismus noch Optimismus – sondern einfach die Gefühlslage der breiten Masse.

Wang Hui, Gründer von BroadChain Finance und 1783DAO:

Nach den Beiträgen der Gäste möchte ich Herrn Yang eine Frage stellen: Aus der Perspektive der östlichen Kultur – etwa dem Konzept „Der Mensch ist von Natur aus gut“ – ließe sich ableiten, dass auch KI grundsätzlich gut ist. Doch die aktuelle KI-Entwicklung wird von westlichen Großkonzernen dominiert. Existiert in der westlichen Kultur überhaupt eine vergleichbare Tradition wie „Der Mensch ist von Natur aus gut“? Und wie könnte aus westlicher Sicht die Zukunft der Beziehung zwischen KI und Mensch aussehen?

Yang Ning:

Das ist eine ausgezeichnete Frage. Der Mensch besitzt universelle Merkmale und eine gemeinsame menschliche Natur: Freundlichkeit, Kooperation und Empathie sind unabhängig von Kultur, Ethnie oder Herkunft weitgehend identisch. Deshalb lehne ich das Konzept des „dunklen Waldes“ aus dem Roman „Der Dreifache Sonnenuntergang“ ab: Der Mensch ist kein Tier, sondern ein Wesen mit der Fähigkeit, Teams und Organisationen zu bilden. Bei der Schulung von maschinellen Lernmodellen ist qualitativ hochwertiger Input entscheidend – denn Qualität und Genauigkeit der Daten sowie ihrer Labels bestimmen direkt den Erfolg des Trainings. Außerdem üben die KI-Entwickler einen starken Einfluss aus, denn die „Menschlichkeit“ der Maschine stammt letztlich vom Menschen.

Wang Hui, Gründer von BroadChain Finance und 1783DAO:

Ich möchte Herrn Bai Qiang noch eine Frage stellen: Sie erwähnten, dass viele Tool-basierte Produkte verschwinden könnten. Heißt das, auch ChatGPT könnte verschwinden? Und wenn ja, welche Art von KI-Projekten hat Ihrer Meinung nach langfristig Bestand?

Bai Qiang:

Meiner Ansicht nach liegt die Stärke von OpenAI in seinem großen Sprachmodell (LLM), nicht allein in Produkten wie ChatGPT. Selbst wenn Tool-basierte Anwendungen wie ChatGPT irgendwann obsolet werden sollten, bleibt der umfangreiche Datenschatz von OpenAI ein entscheidender Wettbewerbsvorteil. Der Schlüssel, um sich von der Masse abzuheben, liegt in der erfolgreichen Transformation zu einem Content-Unternehmen der neuen AGI-Ära. Ein gutes Beispiel ist Pixar: Es hat sich zu einem Unternehmen entwickelt, das hochwertige Inhalte produziert und sogar Oscars gewinnt. Wir müssen heute neue Modelle und Produkte aus einer KI-Perspektive neu denken – und uns nicht an veralteten Denkmustern festhalten. Es geht darum, in dieser neuen Ära alles neu zu definieren und darin Chancen für Gründungen und Investitionen zu erkennen. Ich bin überzeugt, dass dieser Ansatz in Zukunft zahlreiche Möglichkeiten eröffnen wird.

Dao’erji, stellvertretender Chefredakteur für Ostchina bei ChainDD (Linkdetrade):

Ich habe eine Frage: Sollte der Turing-Test als Maßstab für die Bewertung von AGI dienen, oder brauchen wir einen anderen Teststandard?

Yang Ning:

Um die Leistungsfähigkeit einer Maschine zu bewerten, lassen sich meiner Meinung nach zwei Richtungen unterscheiden: die Bewertung des Intelligenzniveaus und die Bewertung ihres „psychischen“ Zustands. Für das Intelligenzniveau ist der klassische Turing-Test veraltet; wir brauchen neue Testmethoden – etwa einen „KI-IQ-Test“, um das Niveau künstlicher Intelligenz quantitativ zu messen. Dabei muss jedoch vermieden werden, dass Entwickler ihre Systeme gezielt auf einen bestimmten Test trimmen. Für die Bewertung des psychischen Zustands halte es für sinnvoll, spezielle Testverfahren zu entwickeln, die analog zu menschlichen psychologischen Tests funktionieren. Beide Richtungen sind äußerst wichtig und sollten von Universitäten und Forschungsinstituten intensiv erforscht werden.

Dao’erji, stellvertretender Chefredakteur für Ostchina bei ChainDD (Linkdetrade):

Vielen Dank für die ausführliche Antwort, Herr Yang. Eine weitere Frage zur KI-Ethik: Wenn wir gesellschaftliche Aufgaben und Verantwortung an KI-Systeme delegieren, wie stellen wir sicher, dass ethische Fragen angemessen berücksichtigt werden? Nehmen wir autonomes Fahren: KI-Fortschritte könnten neue Impulse für diese Ära liefern, etwa durch komplexe Steuerbefehle oder multimodale Datenanweisungen. Doch die Kernfrage bleibt: Wie können wir bei der Nutzung fortschrittlicher KI sicherstellen, dass ethische Aspekte gewahrt werden? Wie sollten wir KI-Systeme in dieser Hinsicht trainieren?

Yang Ning:

Die von Ihnen angesprochene Frage ist meiner Ansicht nach weniger eine ethische, sondern vor allem eine juristische. Dabei geht es zentral um den Unterschied zwischen deterministischen und probabilistischen Algorithmen. Ein deterministischer Algorithmus führt bei gleicher Eingabe stets zur selben Entscheidung. Ein KI-basierter Algorithmus folgt hingegen einer Wahrscheinlichkeitsverteilung – bei identischer Eingabe kann die Maschine also unterschiedliche Entscheidungen treffen.

Genau deshalb gibt es weltweit derzeit keine Systeme, bei denen lebenswichtige Entscheidungen auf probabilistischen KI-Modellen basieren dürfen – die Haftungsfrage wäre zu gravierend. Nehmen wir einen Unfall mit einem autonomen Fahrzeug: Wer haftet? Ist ein Fahrer an Bord, haftet dieser; ist das Fahrzeug leer, haftet der Anbieter des Autopilot-Dienstes.

Derzeit vertrauen wir KI-Systemen noch nicht genug, um über Leben und Tod oder schwerwiegende Schäden entscheiden zu lassen. Selbst in der Luftfahrt erlaubt die Zivilluftfahrtbehörde keine derart weitreichenden KI-Entscheidungen. Erlaubt sind nur menschliche Entscheidungen oder automatisierte Prozesse auf Basis deterministischer Algorithmen – also solche, bei denen gleiche Eingaben stets gleiche Ausgaben produzieren. Daher setzen wir in unseren aktuellen Projekten zu unbemannten Fluggeräten ebenfalls auf deterministische Algorithmen, um die notwendigen behördlichen Genehmigungen zu erhalten.

Das waren die Highlights dieses Twitter Space – wir hoffen, Sie konnten wertvolle Informationen und Impulse mitnehmen. GPT DAO ist die anspruchsvollste AGI-Informations-Community, die sich auf tiefgründige und technisch fundierte Inhalte spezialisiert hat – ein Besuch lohnt sich!

Folgen Sie GPTDAO auf Twitter, um keine Veranstaltung zu verpassen.

Chinesisches Twitter-Konto: @GPTDAOCN

Englisches Twitter-Konto: @GPTDAOGLOBAL