Ethereum-Mitbegründer Vitalik Buterin teilte seine einzigartigen Ansichten zu AGI (General Artificial Intelligence) und ASI (Artificial Superintelligence) auf Twitter mit und betonte, dass wir uns auf KI-Tools konzentrieren sollten, anstatt die Entwicklung superintelligenter Lebensformen zu verfolgen und den Menschen zu ersetzen, und er hat große Angst vor einer Überentwicklung von AGI und ASI.
AGI ist künstliche Intelligenz, die die Zivilisation unabhängig aufrechterhält
Vitalik definiert AGI als eine ziemlich leistungsstarke KI. Er sagt, dass wenn plötzlich alle Menschen verschwinden würden und diese KI in Roboter installiert wäre, sie eigenständig betreiben und die gesamte Zivilisation aufrechterhalten könnte. Er fügt hinzu, dass dieses Konzept von der herkömmlichen ‘werkzeughaften’ KI zu einer ‘selbsterhaltenden Lebensform’ aufgewertet wird.
Vitalik stellt fest, dass die derzeitige Technologie nicht in der Lage ist, eine solche Situation zu simulieren. Wir können die KI wirklich nicht testen, ob sie die Zivilisation ohne Menschen aufrechterhalten kann, und es ist noch schwieriger, die Standards für die ‘zivilisatorische Entwicklung’ zu definieren, welche Bedingungen die Weiterführung der Zivilisation repräsentieren, und diese Fragen an sich sind bereits sehr komplex. Aber das ist vielleicht die Hauptunterscheidungsquelle, anhand der die Menschen AGI direkt von normaler KI unterscheiden können.
(Hinweis: Eine selbst erhaltende Lebensform, die bedeutet, dass ein Organismus oder ein Lebenssystem in der Lage ist, Ressourcen zu gewinnen und zu nutzen, um das Leben aufrechtzuerhalten, sich an Umweltveränderungen anzupassen und unter bestimmten Bedingungen fortzubestehen.)
Betonung der Bedeutung intelligenter Hilfsmittel, nicht der Ersatz von Menschen durch KI
Vitalik definiert künstliche Superintelligenz (ASI) als den Punkt, an dem der Fortschritt der KI den Wert übersteigt, der durch menschliche Beteiligung erreicht werden kann, und ein Stadium erreicht, in dem sie vollständig autonom und effizienter ist. Er führt Schach als Beispiel an, das erst in den letzten zehn Jahren dieses Stadium erreicht hat, wobei das Niveau der KI das beste Ergebnis übertrifft, das durch die Zusammenarbeit von Mensch und KI erzielt werden kann. Er gibt zu, dass ASI ihn beängstigt, da dies bedeuten würde, dass die Kontrolle über KI für Menschen möglicherweise wirklich verloren geht.
Vitalik sagte, anstatt Superintelligenzen zu entwickeln, sollten wir uns darauf konzentrieren, Werkzeuge zu entwickeln, die die menschliche Intelligenz und Fähigkeiten stärken können. Er ist der Ansicht, dass KI den Menschen unterstützen sollte, anstatt sie zu ersetzen. Diese Entwicklungslinie kann das Risiko einer unkontrollierbaren KI verringern und gleichzeitig die Effizienz und Stabilität der Gesellschaft insgesamt verbessern.
Die Bedrohung der Arbeitslosigkeit, die durch generative KI entsteht: Wird die gesamte Belegschaft von Amazon vollständig durch eine Flotte von Maschinen ersetzt werden?
In diesem Artikel hat Vitalik Angst vor AGI und ASI: Der Fokus der Menschheit sollte auf der Verbesserung der Intelligenztools liegen, nicht auf dem Ersatz von Menschen durch KI. Ursprünglich erschienen auf Chain News ABMedia.