Artificial Superintelligence

Artificial Superintelligence (ASI), auch künstliche Superintelligenz, bezeichnet eine hypothetische Form der künstlichen Intelligenz (KI).[1] Sie soll, unabhängig von Definitionsproblemen bezüglich des Terminus Intelligenz, in der Lage sein, sämtliche kognitiven Fähigkeiten des Menschen um ein vielfaches zu übertreffen.

Beschreibung

Solch eine Form der Artificial Intelligence soll Problemlösungs- und Entscheidungsfindungskompetenz für hochkomplexe Fragestellungen besitzen und sich zusätzlich durch emotionale und soziale Intelligenz auszeichnen. Sie würde sich selbst verbessern können und über heute noch unbestimmte Weisen der Selbstwahrnehmung verfügen.

ASI soll unabhängig von menschlicher Unterstützung operieren und im Stande sein, die eigenen Ergebnisse so zu evaluieren, dass sich eine stete Bereicherung ihrer Fähigkeiten ergibt.

ASI würde Artificial General Intelligence (AGI) und menschliches Denken übertreffen und wissenschaftliche und technische Probleme schneller als alles je zuvor lösen. Durch fortlaufendes Lernen passte sich ASI zufolge der selbständigen Evaluation jeder neuen Interaktion dynamisch an. Durch die emotionale Intelligenz würde ASI menschliche Emotionen tiefgehend verstehen können.

ASI würde ihre Algorithmen autonom optimieren. ASI verfügte über interdisziplinäres Potential und nützte so Wissen aus vielen Fachgebieten lösungsorientiert.

ASI hätte idealerweise ethische Richtlinien und Sicherheitsprotokolle integriert, um Missbrauch vorzubeugen. Viele Fachexperten warnen jedoch vor der prinzipiellen Unkontrollierbarkeit solcher Systeme, da sie jegliche menschliche Intelligenz übertreffen würden. Auch dazu gibt es in der Tech-Community Bestrebungen. Im Gegensatz zu Europa, wo seit 2024 die Verordnung zur künstlichen Intelligenz gilt,[2] ist in den USA aktuell nicht mit staatlichen Regulierungen zu rechnen, dort bleiben solche Anstrengungen vorerst auf private Initiativen beschränkt.[3]

Machbarkeit von ASI - künstlicher Superintelligenz

Künstliche Intelligenz hat rasche Fortschritte gemacht und die menschlichen Fähigkeiten in verschiedenen Benchmarks erreicht und übertroffen.

Wie die Grafik aus 2023 zeigt, fehlen gerade im Bereich des komplexen Denkens noch viele Schritte, um nahe an die menschlichen Fähigkeiten heranzureichen oder sie gar zu überflügeln.

Die Schaffung von künstlicher Superintelligenz (ASI) als Potenzierung des AGI Ansatzes ist in den letzten Jahren, insbesondere mit den raschen Fortschritten in den Technologien künstliche Intelligenz (KI), zunehmend diskutiert worden.[4] Der San Francisco Consensus ist ein offener Zusammenschluss von Proponenten, die sich mit den Fragen und Potentialen der ASI beschäftigen. Es werden in diesen Kreisen weitreichende Revolutionierungen in Bereichen wissenschaftlicher Entdeckungen skizziert, auch grundsätzliche Neudefinitionen menschlichen Zusammenlebens werden auf Basis der Möglichkeiten von ASI prophezeit. Ex Google CEO Eric Schmidt äußert sich dazu in Interviews.[5] Besonders Vertreter des Transhumanismus sehen in den Möglichkeiten der ASI ein für ihre Ideen zuträgliches Zukunftskonzept.[6]

Fortschritte in der KI und Behauptungen über AGI

Jüngste Entwicklungen in der KI, insbesondere bei Large Language Models (LLMs), die auf der Transformer Deep-Learning-Architektur basieren, haben zu erheblichen Verbesserungen bei verschiedenen Aufgaben geführt. Modelle wie GPT-3, GPT-4, Claude 3.5 und andere haben Fähigkeiten gezeigt, die einige Forscher so interpretieren, dass sie der künstlichen allgemeinen Intelligenz (AGI) nahekommen bzw. sogar Aspekte davon aufweisen.[7]

Diese Behauptung, dass aktuelle LLMs AGI darstellen, sind jedoch sehr umstritten. Kritiker argumentieren, dass diese Modelle wohl beeindrucken können, jedoch immer noch weit von Weisen bewussten Verständnisses entfernt sind. Es handelt sich primär um ausgeklügelte Mustererkennungssysteme.[8] Ein im Juni 2025 veröffentlichtes Paper von Apple Research relativiert die marketingorientierten Versprechungen bezüglich der Fähigkeiten komplexen Denkens von Large Reasoning Models (LRMs).[9]

Mögliche Wege zur Superintelligenz

Der Philosoph David Chalmers reiht sich in die positiv fortschrittliche Grundstimmung ein, und behauptet, dass AGI ein wahrscheinlicher Weg zu ASI sein wird. Er postuliert, dass KI die Äquivalenz zur menschlichen Intelligenz erreichen, über diese hinaus erweitert und dann verstärkt werden kann, um Menschen bei beliebigen Aufgaben zu dominieren.[10]

  • Skalierung aktueller KI-Systeme – bestehende KI-Architekturen, insbesondere von Transformer-basierten Modellen, könnten zu AGI und potenziell zu ASI führen.[11]
  • Neuartige Architekturen – möglicherweise von der Neurowissenschaft inspiriert, könnten notwendig sein, um AGI und ASI zu erreichen.[12]
  • Hybride Systeme – Die Kombination verschiedener KI-Ansätze, einschließlich symbolischer KI und neuronaler Netze, könnte möglicherweise zu robusteren und leistungsfähigeren Systemen führen.[13]

Rechentechnische Vorteile

Potentielle Vorteile künstlicher Systeme gegenüber z. B. biologischer Intelligenz:

  • Geschwindigkeit – Computerkomponenten arbeiten viel schneller als biologische Neuronen. Moderne Mikroprozessoren (~2 GHz) sind sieben Größenordnungen schneller als Neuronen.[14]
  • Skalierbarkeit – KI-Systeme können potenziell leichter in Größe und Rechenkapazität skaliert werden als biologische Gehirne.
  • Modularität – Verschiedene Komponenten von KI-Systemen könnten unabhängig voneinander verbessert oder ersetzt werden.
  • Speicher – KI-Systeme können eine perfekte Erinnerung und riesige Wissensdatenbanken haben. Sie sind auch weniger eingeschränkt als Menschen, wenn es um das Arbeitsgedächtnis geht.
  • Multitasking – KI kann mehr Aufgaben gleichzeitig ausführen, was für biologische Einheiten so nicht möglich ist.

Potenzieller Weg durch Transformer-Modelle

Jüngste Fortschritte bei Transformer-basierten Modellen haben Spekulationen Vorschub geleistet, dass der Weg zu ASI in der Skalierung und Verbesserung dieser Architekturen liegen könnte. Diese Ansicht deutet darauf hin, dass fortgesetzte Verbesserungen bei Transformer-Modellen oder ähnlichen Architekturen direkt zu ASI führen könnten. Einige Experten argumentieren sogar, dass aktuelle große Sprachmodelle wie GPT-4 bereits frühe Anzeichen von AGI- oder ASI-Fähigkeiten aufweisen könnten.[15]

Diese optimistische Perspektive legt nahe, dass der Übergang von der aktuellen KI zu ASI kontinuierlicher und schneller verlaufen könnte als bisher angenommen. Samuel Harris Altman (CEO OpenAI) hält Superintelligenz in wenigen 1000 Tagen für möglich.[16] Dadurch würden die Grenzen zwischen enger KI, AGI und ASI immer mehr verschwimmen. Dies bleibt jedoch umstritten. Kritiker argumentieren, dass aktuelle Modelle, obwohl beeindruckend, immer noch entscheidende Aspekte allgemeiner Intelligenz wie wahres Verständnis, Schlussfolgerungen und Anpassungsfähigkeit sowie die Lösung hochkomplexer Aufgaben über verschiedene Bereiche hinweg vermissen lassen.[17]

Debatten, ob der Weg zu ASI eine eigenständige AGI-Phase oder eine direktere Skalierung aktueller Technologien beinhalten wird, sind nicht abgeschlossen und haben große Auswirkungen auf die Strategien zur KI-Entwicklung und Sicherheitsüberlegungen.

Herausforderungen und Unsicherheiten

Trotz dieser potenziellen Vorteile gibt es erhebliche Herausforderungen und Unsicherheiten bei der Erreichung von ASI:

  • Ethische und Sicherheitsbedenken – Die Entwicklung von ASI wirft zahlreiche ethische Fragen und potenzielle Risiken auf, die angegangen werden müssen.[18]
  • Rechenanforderungen – Die für ASI benötigten Rechenressourcen könnten weit über die derzeitigen Fähigkeiten hinausgehen.
  • Grundlegende Einschränkungen – Es könnte grundlegende Einschränkungen der Intelligenz geben, die sowohl für künstliche als auch für biologische Systeme gelten.
  • Unvorhersehbarkeit – Der Weg zu ASI und seine Folgen sind höchst ungewiss und schwer vorherzusagen.

Einzelnachweise

  1. https://www.ibm.com/de-de/think/topics/artificial-superintelligence
  2. https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=OJ:L_202401689
  3. https://apnews.com/article/openai-sutskever-altman-artificial-intelligence-safety-c6b48a3675fb3fb459859dece2b45499 OpenAI co-founder Sutskever sets up new AI company devoted to safe superintelligence |20.06.2024
  4. https://economictimes.indiatimes.com/tech/artificial-intelligence/superintelligence-is-the-next-big-thing-for-openai-sam-altman/articleshow/116993208.cms, Superintelligence' is the next big thing for OpenAI: Sam Altman, The Economic Times, 01.02.2025
  5. https://rogue-scholar.org/records/9wgss-ppm61 Eric Schmidt on San Francisco Consensus about the impact of artificial intelligence, 16.07.2025
  6. https://naturrechteundki.ruhrkultour.de/der-neue-menschenersatz-wie-joseph-hindingers-asi-gesprach-das-transhumanistische-legitimationsnarrativ-fortschreibt/
  7. https://futurism.com/gpt-4-sparks-of-agi Microsoft Researchers Claim GPT-4 Is Showing "Sparks" of AGI, 13.12.2023
  8. https://www.zeit.de/digital/internet/2025-05/reasoning-modelle-kuenstliche-intelligenz-superintelligenz Die Zeit, 02.05.2025
  9. https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf
  10. Chalmers, David (2010). "The Singularity: A Philosophical Analysis" (PDF). Journal of Consciousness Studies. 17: 7–65.
  11. Kaplan, Jared; McCandlish, Sam; Henighan, Tom; Brown, Tom B.; Chess, Benjamin; Child, Rewon; Gray, Scott; Radford, Alec; Wu, Jeffrey; Amodei, Dario (2020). "Scaling Laws for Neural Language Models". arXiv:2001.08361 [cs.LG]
  12. Hassabis, Demis; Kumaran, Dharshan; Summerfield, Christopher; Botvinick, Matthew (2017). "Neuroscience-Inspired Artificial Intelligence". Neuron. 95 (2): 245–258. doi:10.1016/j.neuron.2017.06.011. PMID 28728020.
  13. Garcez, Artur d'Avila; Lamb, Luis C. (2020). "Neurosymbolic AI: The 3rd Wave". arXiv:2012.05876 [cs.AI].
  14. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press s.59
  15. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Precup, Doina; Sountsov, Pavel; Srivastava, Sanjana; Tessler, Catherine; Tian, Jianfeng; Zaheer, Manzil (22 March 2023). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". arXiv:2303.12712 [cs.CL]
  16. https://fortune.com/2024/09/24/sam-altman-ai-superintelligence/
  17. Marcus, Gary (2020). "The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence". arXiv:2002.06177 [cs.AI].
  18. Russell, Stuart J. (2019). Human compatible: artificial intelligence and the problem of control. New York. ISBN 978-0-525-55861-3