Vitalik ist besorgt über AGI und ASI: Menschen sollten sich auf die Verbesserung ihrer Intelligenzwerkzeuge konzentrieren, anstatt sich von KI ersetzen zu lassen.

ChainNewsAbmedia
AGI0,33%
ASI12,15%
ETH-4,69%

Ethereum-Mitbegründer Vitalik Buterin teilte seine einzigartigen Ansichten zu AGI (General Artificial Intelligence) und ASI (Artificial Superintelligence) auf Twitter mit und betonte, dass wir uns auf KI-Tools konzentrieren sollten, anstatt die Entwicklung superintelligenter Lebensformen zu verfolgen und den Menschen zu ersetzen, und er hat große Angst vor einer Überentwicklung von AGI und ASI.

AGI ist künstliche Intelligenz, die die Zivilisation unabhängig aufrechterhält

Vitalik definiert AGI als eine ziemlich leistungsstarke KI. Er sagt, dass wenn plötzlich alle Menschen verschwinden würden und diese KI in Roboter installiert wäre, sie eigenständig betreiben und die gesamte Zivilisation aufrechterhalten könnte. Er fügt hinzu, dass dieses Konzept von der herkömmlichen ‘werkzeughaften’ KI zu einer ‘selbsterhaltenden Lebensform’ aufgewertet wird.

Vitalik stellt fest, dass die derzeitige Technologie nicht in der Lage ist, eine solche Situation zu simulieren. Wir können die KI wirklich nicht testen, ob sie die Zivilisation ohne Menschen aufrechterhalten kann, und es ist noch schwieriger, die Standards für die ‘zivilisatorische Entwicklung’ zu definieren, welche Bedingungen die Weiterführung der Zivilisation repräsentieren, und diese Fragen an sich sind bereits sehr komplex. Aber das ist vielleicht die Hauptunterscheidungsquelle, anhand der die Menschen AGI direkt von normaler KI unterscheiden können.

(Hinweis: Eine selbst erhaltende Lebensform, die bedeutet, dass ein Organismus oder ein Lebenssystem in der Lage ist, Ressourcen zu gewinnen und zu nutzen, um das Leben aufrechtzuerhalten, sich an Umweltveränderungen anzupassen und unter bestimmten Bedingungen fortzubestehen.)

Betonung der Bedeutung intelligenter Hilfsmittel, nicht der Ersatz von Menschen durch KI

Vitalik definiert künstliche Superintelligenz (ASI) als den Punkt, an dem der Fortschritt der KI den Wert übersteigt, der durch menschliche Beteiligung erreicht werden kann, und ein Stadium erreicht, in dem sie vollständig autonom und effizienter ist. Er führt Schach als Beispiel an, das erst in den letzten zehn Jahren dieses Stadium erreicht hat, wobei das Niveau der KI das beste Ergebnis übertrifft, das durch die Zusammenarbeit von Mensch und KI erzielt werden kann. Er gibt zu, dass ASI ihn beängstigt, da dies bedeuten würde, dass die Kontrolle über KI für Menschen möglicherweise wirklich verloren geht.

Vitalik sagte, anstatt Superintelligenzen zu entwickeln, sollten wir uns darauf konzentrieren, Werkzeuge zu entwickeln, die die menschliche Intelligenz und Fähigkeiten stärken können. Er ist der Ansicht, dass KI den Menschen unterstützen sollte, anstatt sie zu ersetzen. Diese Entwicklungslinie kann das Risiko einer unkontrollierbaren KI verringern und gleichzeitig die Effizienz und Stabilität der Gesellschaft insgesamt verbessern.

Die Bedrohung der Arbeitslosigkeit, die durch generative KI entsteht: Wird die gesamte Belegschaft von Amazon vollständig durch eine Flotte von Maschinen ersetzt werden?

In diesem Artikel hat Vitalik Angst vor AGI und ASI: Der Fokus der Menschheit sollte auf der Verbesserung der Intelligenztools liegen, nicht auf dem Ersatz von Menschen durch KI. Ursprünglich erschienen auf Chain News ABMedia.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare