Apertus


Apertus
Basisdaten

Entwickler ETH Zürich, ETH Lausanne und Swisscom
Erscheinungsjahr 2025
Aktuelle Version Apertus 2 Septembre 2025 Version
(2. September 2025)
Programmier­sprache Python
Lizenz Apache-Lizenz
publicai.co

Apertus ist ein großes Sprachmodell (engl. Large Language Model, kurz LLM), das von Forschern in der Schweiz entwickelt wurde.[1] Apertus wurde im September 2025 vorgestellt und gilt damit als das erste große Sprachmodell aus der Schweiz. Es ist vollständig als Open Source verfügbar; auch der Quellcode des Trainingsprozesses sowie die Trainingsdaten sind offengelegt.[2][3]

Es wird als erstes großes Sprachmodell bezeichnet, welches die Transparenzpflichten der KI-Verordnung der Europäischen Union (engl. EU AI Act) vollständig erfüllt.[1] Für das Training wurden explizit Sprachen inkludiert, die in vergleichbaren Modellen unterrepräsentiert sind.[4]

Projektorganisation

Das Sprachmodell entstand durch Zusammenarbeit der ETH Zürich, der ETH Lausanne (französisch EPFL) und des Centro svizzero di calcolo scientifico (CSCS), welches den Supercomputer Alps betreibt.

Eigenschaften

Apertus ist ein Basismodell vom Typ Generativer vortrainierter Transformer (GPT). Es ist vergleichbar mit den Modellen, die ChatGPT zugrundeliegen, und besteht aus gestapelten Transformer-Decodern. Das Modell wurde in zwei Größen (8 Milliarden und 70 Milliarden Parameter) veröffentlicht, von beiden existiert zudem eine auf Instruktionen finegetunte Version.[4] Trainiert wurde mit 15 Billionen Worteinheiten (Tokens) aus über tausend Sprachen[2], darunter bewusst viele Quellen auf Sprachen, welche in vergleichbaren Modellen untervertreten sind, wie Schweizerdeutsch und Rätoromanisch.[5][2][6] Hierzu wurde eine eigene Methode zur Worteinbettung entwickelt, die Bevorteilung der englischen Sprache vermindern soll.[7] Im Zuge der Entwicklung des Modells wurden zudem weitere Komponenten optimiert und teils neu entwickelt, wie z. B. ein Optimierer.[8]

Die Entwicklung von Apertus erfolgte unter Berücksichtigung der Schweizer Datenschutzgesetze, des Schweizer Urheberrechts und der Transparenzanforderungen der EU KI-Verordnung. Allerdings wurde nicht bei allen zum Training verwendeten, menschlich erzeugten Textquellen die Erlaubnis für deren Verwendung formal eingeholt. Für das KI-Training gesperrte öffentliche Texte wie z. B. diejenigen der New York Times wurden dagegen nicht verwendet[9][10] – im Gegensatz zu bekannteren Sprachmodellen kommerzieller Anbieter, welche urheberrechtlich geschützte Inhalte ohne Bewilligung verwendeten.[11] Die Entwickler versprechen, Wünsche von Urheberrechtsbesitzern zur Entfernung ihrer allenfalls im Modell verwendeten Quellen nachzukommen (engl: Opting-out requests).[1]

Zum Stand der Veröffentlichung umfasst Apertus noch keine multimodale Benutzerschnittstelle und ist deshalb noch kein vollständiger Chatbot. Auch ist die Komplexität des Sprachmodells (Anzahl Schichten und Parameter) kleiner als bei den leistungsfähigsten Chatbots kommerzieller Hersteller. Die Modelle sollen laufend weiterentwickelt werden.

Als umfassend offengelegte KI-Basistechnologie will Apertus Kleinunternehmen und Anwendern in unterschiedlichen Bereichen die Entwicklung eigener KI-Lösungen bei relativ geringem Aufwand ermöglichen.[12][13]

Partnerschaften

  • Swisscom stellt eine speziell entwickelte Schnittstelle zur Verfügung, die das Arbeiten mit dem Modell erleichtert. Geschäftskunden von Swisscom haben Zugriff auf das Apertus-Sprachmodell über die Swiss AI Platform von Swisscom.[14]

Einzelnachweise

  1. a b c Malte Kirchner: Apertus: Schweiz stellt erstes offenes und mehrsprachiges KI-Modell vor. In: heise online. 2. September 2025, abgerufen am 7. September 2025.
  2. a b c Apertus: Ein vollständig offenes, transparentes und mehrsprachiges Sprachmodell. In: ETH Zürich. 2. September 2025, abgerufen am 7. September 2025.
  3. Elissa Welle: Switzerland releases its own AI model trained on public data In: The Verge, 2025-09-03 (englisch)
  4. a b Apertus – Democratizing Open and Compliant LLMs for Global Language Environments. (PDF; 4,1 MB) Technischer Bericht. In: GitHub. Project Apertus, 2. September 2025, abgerufen am 6. September 2025 (englisch).
  5. Ruth Fulterer: Die Schweiz bekommt eine Chat-GPT-Alternative: die wichtigsten Antworten zu Apertus. In: Neue Zürcher Zeitung. 2. September 2025, abgerufen am 7. September 2025.
  6. Romanou, Agelika et al.: Evaluating Multilingual Language Understanding with Regional Knowledge arXiv:2411.19799, EPFL und ETH Zürich, 29. November 2024 (englisch)
  7. Negar Foroutan, Clara Meister, Debjit Paul, Joel Niklaus, Sina Ahmadi, Antoine Bosselut, Rico Sennrich: Parity-Aware Byte-Pair Encoding: Improving Cross-lingual Fairness in Tokenization. 22. August 2025, arxiv:2508.04796 (englisch).
  8. Matteo Pagliardini, Pierre Ablin, David Grangier: The AdEMAMix Optimizer: Better, Faster, Older. 27. September 2024, arxiv:2409.03137 (englisch).
  9. Jan Bolliger, Edith Hollenstein: 1000 Sprachen und ein Super­computer in Lugano: Die Schweiz steigt ins KI-Rennen ein. In: Tages-Anzeiger. 2. September 2025, abgerufen am 7. September 2025.
  10. Fan, Dongyang et al.: Can Performant LLMs Be Ethical? Quantifying the Impact of Web Crawling Opt-Outs arXiv:2504.06219, EPFL, 5. August 2025 (englisch)
  11. Cade Metz: Anthropic Agrees to Pay $1.5 Billion to Settle Lawsuit With Book Authors In: New York Times 2025-09-05. Abgerufen am 2025-09-08 (englisch)
  12. Vyom Ramani: Apertus, the Swiss open-source AI model: What it does and how it is different? digit.in, 2025-09-04 (englisch)
  13. John E. Dunn: Swiss launch open source AI model as “ethical” alternative to big US LLMs In: Info World 2025-09-04, abgerufen am 2025-09-14 (englisch)
  14. Sepp Huber: Apertus: A fully open, transparent, multilingual language model. In: Swisscom. 2. September 2025, abgerufen am 7. September 2025 (englisch).