Januar 30, 2025

Hat DeepSeek CUDA wirklich umgangen?

DeepSeek: Revolution oder Risiko für die KI-Industrie?

Die Wahrnehmung von DeepSeek hat in den letzten Tagen eine bemerkenswerte Entwicklung durchlaufen – von anfänglicher Begeisterung über kritische Stimmen bis hin zu einer vorsichtigen Akzeptanz. Die Debatte ist in vollem Gange, und heute Morgen sorgten neue Enthüllungen für weitere Diskussionen in der Tech-Welt.

Microsofts Vorstoß mit DeepSeek R1

Microsoft-CEO Satya Nadella kündigte an, dass DeepSeek R1 nun über die Azure AI Foundry-Plattform sowie auf GitHub verfügbar sei und bald auch auf Copilot+-Geräten laufen werde. Laut Nadella bringt das Modell „echte Innovationen“ mit sich und könnte die Kosten für KI erheblich senken.

Eine Analyse von Mirae Asset Securities Korea deutet darauf hin, dass DeepSeek durch gezielte Optimierungen und die Verwendung von Nvidias PTX (Parallel Thread Execution) anstelle von CUDA in bestimmten Bereichen eine bemerkenswerte Effizienzsteigerung erzielt hat. Ob dies zur jüngsten Kurskorrektur von Nvidia beigetragen hat, bleibt unklar. Gleichzeitig gewinnen Konzepte wie „Rechenleistung-Deflation“ an Bedeutung. Zudem könnte ein mögliches Exportverbot der USA für Nvidias H20-Chips zusätzliche Unsicherheiten im Markt auslösen.

Stimmen aus der Tech-Welt

DeepSeek R1 reiht sich nun in das Portfolio der Azure AI Foundry mit über 1800 Modellen ein und ermöglicht Unternehmen die Integration fortschrittlicher KI-Lösungen. Nadella betonte, dass sich mit jeder neuen Hardwaregeneration die Effizienz verdopple und mit jeder Modellgeneration sogar verzehnfache.

Auch Meta-CEO Mark Zuckerberg nahm Stellung. In der Telefonkonferenz zum Quartalsbericht betonte er, dass DeepSeeks Fortschritte die strategische Bedeutung von KI untermauern und Meta plant, bestimmte Technologien davon in Llama zu integrieren. Der Aktienrückgang bei KI-Unternehmen zeigt, dass Investoren beunruhigt sind, dass moderne Modelle mit weniger Rechenkapazität auskommen, was etablierte Hardwarehersteller unter Druck setzen könnte. Zuckerberg betonte jedoch, dass Investitionen in KI-Infrastruktur weiterhin eine langfristige Priorität seien.

Gleichzeitig äußerte er sich kritisch gegenüber Start-ups wie OpenAI und Anthropic, die seiner Meinung nach noch kein tragfähiges Geschäftsmodell vorweisen können. Meta hingegen verfüge über eine stabile finanzielle Basis, um KI-Projekte im Wert von 60 Milliarden Dollar zu finanzieren.

Die Debatte um „Distillation“

Ein weiterer kontroverser Punkt ist die Verwendung von Distillation-Techniken durch DeepSeek. OpenAI untersucht derzeit, ob das Modell durch diese Methode große Mengen an Daten aus seinen Tools extrahiert haben könnte.

Naveen Rao, KI-Vizepräsident bei Databricks, erklärte, dass es in der Branche üblich sei, von Mitbewerbern zu lernen – solange dies nicht gegen Nutzungsbedingungen verstößt. Auch Umesh Padval von Thomvest Ventures sieht darin keinen Skandal, da Open-Source-Modelle wie Mistral oder Llama ohnehin schwer vor fremder Nutzung zu schützen seien.

DeepSeek selbst bestätigte in einer aktuellen Forschungsarbeit, dass es Distillation-Techniken verwendet, um leistungsfähige, aber kompaktere Versionen seines Modells R1 zu entwickeln.

Eine Gefahr für Nvidia?

Die möglichen Auswirkungen von DeepSeek auf Nvidia sind ein zentrales Thema der Diskussion. Ein Bericht von Tom’s Hardware zeigt, dass DeepSeek durch architektonische Neugestaltung eine bis zu zehnfache Hardware-Effizienz im Vergleich zu Modellen wie Metas Llama erreicht.

Besonders bemerkenswert: DeepSeek hat angeblich 20 der 132 Streaming-Multiprozessoren (SMs) in Nvidias H800-GPUs für die Serverkommunikation umfunktioniert, anstatt sie für Berechnungen zu nutzen – eine Strategie, um Engpässe in der Datenübertragung zu umgehen. Diese Optimierung wurde durch den Einsatz von PTX anstelle von CUDA erreicht. PTX agiert als Zwischenschicht zwischen Hochsprachen wie CUDA C/C++ und der maschinennahen SASS-Assembly und erlaubt tiefgehende Optimierungen auf Register- und Thread-Ebene, die mit herkömmlichem CUDA nicht möglich wären.

Diese Technik erfordert hohes Expertenwissen, da sie weit über Standard-CUDA-Entwicklung hinausgeht. Aufgrund des globalen GPU-Mangels suchen Unternehmen wie DeepSeek nach innovativen Alternativen. Vollständig auf CUDA verzichtet DeepSeek jedoch nicht – vielmehr zeigt es, dass es auch andere Wege zur Effizienzsteigerung gibt.

Fazit: Ein Wendepunkt für die KI-Industrie?

DeepSeek sorgt weiterhin für Diskussionen. Während Microsoft, Meta und Investoren seine Innovationskraft loben, bleiben Fragen zur Nachhaltigkeit, zu ethischen Aspekten und zu den Auswirkungen auf Nvidia offen. Sollte sich der Trend zur effizienteren KI-Rechenleistung fortsetzen, könnte DeepSeek eine Schlüsselrolle in der zukünftigen Entwicklung von KI-Architekturen und Hardwareoptimierungen spielen.

Interview mit Liang Wenfeng, Gründer von DeepSeek: Warum wir Open Source machen

In letzter Zeit hat das chinesische Unternehmen DeepSeek in der Welt der Künstlichen Intelligenz für Aufregung gesorgt. Mit einem bahnbrechenden Modell, das scheinbar mit den führenden internationalen KI-Entwicklungen konkurrieren kann, hat das Unternehmen eine neue Diskussion über den Weg der Innovation und den Zugang zu Technologie ausgelöst. Der Gründer von DeepSeek, Liang Wenfeng, ein Computerwissenschaftler von der Zhejiang Universität, öffnete sich in einem seltenen Interview und erklärte, warum das Unternehmen so einen unkonventionellen Ansatz gewählt hat – und warum Open Source eine grundlegende Rolle für die Zukunft der Künstlichen Intelligenz spielt.

Warum DeepSeek den Open-Source-Weg geht

„Wir machen keine generative KI, sondern verfolgen das Ziel, allgemeine Künstliche Intelligenz (AGI) zu entwickeln“, erklärte Liang. DeepSeek versteht sich nicht nur als Teil des aktuellen Marktes für KI-Anwendungen, sondern als Vorreiter einer langfristigen Vision, bei der AGI eines der größten Ziele ist. „Die generative KI ist nur eine notwendige Etappe auf dem Weg zur AGI. Wir sind zuversichtlich, dass wir diese innerhalb unseres Lebens erreichen können“, fügte er hinzu.

Das Modell von DeepSeek, das mit lediglich 5,5 Millionen US-Dollar an Trainingskosten entwickelt wurde, konnte in der Branche schnell Aufmerksamkeit erregen – und das in einem Markt, in dem die Entwicklung führender Modelle in der Regel Milliarden kosten. „Es gibt keine Technologie, die für immer einen Wettbewerbsvorteil garantiert. Wer glaubt, dass man durch geschlossene Quellen und massive Finanzierungen wie die von OpenAI unaufhaltbar wird, irrt“, sagte er. „Selbst wenn große Unternehmen wie OpenAI alles hinter verschlossenen Türen halten, wird der Fortschritt weiterhin von anderen vorangetrieben.“

Die Bedeutung einer offenen Technologie-Ökologie

Liang betonte, dass der wahre Vorteil von DeepSeek nicht in der Technologie selbst liegt, sondern im Schaffen einer offenen, kollaborativen Gemeinschaft. „Unsere größte Stärke ist nicht die Software, sondern das Team, das wir aufgebaut haben. Die Innovationskraft und das Know-how, das hier entsteht, schaffen die Grundlage für alles Weitere“, erklärte er. „Unsere Modelle sind Open Source, weil wir glauben, dass ein starkes Ökosystem wichtiger ist als der Versuch, alles zu kontrollieren.“

DeepSeek geht es nicht darum, ein Unternehmen zu schaffen, das im Verborgenen gedeiht und sich durch verschlossene Technologien abgrenzt. Vielmehr setzen sie auf den langfristigen Wert einer breiten Technologieakzeptanz und auf die Möglichkeit, in einem offenen System gemeinsam zu wachsen. Diese Entscheidung widerspricht dem Geschäftsmodell vieler US-amerikanischer Tech-Giganten, die ihre Modelle und Algorithmen als exklusiv und kostenpflichtig anbieten.

Der Zugang zur Innovation und das Talent der Zukunft

„In China war es lange Zeit üblich, auf die Arbeit anderer zu setzen und mit den bestehenden Technologien zu monetarisieren“, reflektierte Liang. „Aber jetzt, in dieser neuen Ära, müssen wir als Nation nicht nur Konsumenten von Technologien sein, sondern auch Innovatoren. Wir wollen eine neue Generation von Talenten inspirieren, die in der Lage ist, auf globaler Ebene zu konkurrieren und zu führen.“

Er betonte, dass es nicht an Kapital fehle, sondern an Vertrauen und der Fähigkeit, talentierte Menschen effektiv zu organisieren. „Viele der besten Köpfe der Welt arbeiten heute in China, aber der wahre Durchbruch wird durch die Förderung von Innovation und Kreativität auf lokaler Ebene kommen.“

Liang betonte, dass das Team von DeepSeek nicht nur nach Fachkenntnissen sucht, sondern vor allem nach Leidenschaft und Neugierde. „Unser Ziel ist es, ein Arbeitsumfeld zu schaffen, in dem jeder, der etwas beitragen möchte, auch die Chance dazu bekommt. Wir haben flache Hierarchien, die es ermöglichen, dass jeder in Echtzeit auf die Ressourcen zugreifen kann, die für seine Ideen notwendig sind.“

Die gesellschaftliche Veränderung und die Rolle der harten Innovation

Abschließend sprach Liang über den gesellschaftlichen Wandel in China und den Bedarf an mehr „harter“ Innovation. „Viele chinesische Unternehmen haben sich darauf verlassen, Technologien aus dem Ausland zu übernehmen und anzupassen. Doch die Zeiten haben sich geändert. Der Druck, echte Innovation zu schaffen, wächst, und wir müssen uns dieser Herausforderung stellen“, sagte er.

Er glaubt, dass China zunehmend zu einem aktiven Akteur auf dem globalen Innovationsmarkt wird. „Die Gesellschaft wird sich verändern, wenn wir echte Innovationen auf den Tisch bringen und einen nachhaltigen Beitrag zur globalen Technologie leisten. Es braucht nicht nur Zeit, sondern auch eine Veränderung im Denken der Menschen.“

Für Liang und DeepSeek ist es eine Reise in eine Zukunft, die nicht nur von der Technologie, sondern auch von den Menschen und der Kultur bestimmt wird, die sie erschaffen.

So installierst du DeepSeek AI auf deinem Windows-PC

Hier ist eine Schritt-für-Schritt-Anleitung, wie man DeepSeek AI auf einem Windows 10 oder späteren Computer installiert:

Voraussetzungen:

  • Windows 10 oder später wird benötigt.
  • Testsystem-Spezifikationen, die in dieser Anleitung verwendet werden: i5-6600T, 8GB RAM, 120GB Speicher (Hinweis: Die Leistung in einer virtuellen Maschine kann niedriger sein als die auf einem physischen System).

Schritt 1: Ollama installieren (DeepSeek Modell-Runtime)

  1. Besuchen Sie die offizielle Ollama-Website:
    https://ollama.com/.
  2. Laden Sie Ollama für Windows herunter:
    • Wählen Sie Windows als Betriebssystem und klicken Sie auf Download for Windows.
  3. Installieren Sie Ollama:
    • Nach dem Herunterladen öffnen Sie die .exe Installationsdatei.
    • Klicken Sie auf Installieren (Hinweis: Ollama wird direkt auf Laufwerk C: installiert und der Installationspfad kann nicht geändert werden. Stellen Sie sicher, dass auf Laufwerk C: mindestens 5 GB freien Speicherplatz vorhanden sind).
  4. Warten Sie, bis die Installation abgeschlossen ist:
    • Nach der Installation erscheint keine Bestätigung. Es wird kein Prozess in der Taskleiste angezeigt.
    • Suchen Sie Ollama im Startmenü (Es muss noch nicht geöffnet werden).

Schritt 2: DeepSeek Modell bereitstellen

Nachdem Ollama installiert ist, müssen Sie ein Modell bereitstellen, um DeepSeek auszuführen.

Option 1: Empfohlenes Modell verwenden

  1. Wählen Sie ein Modell, basierend auf Ihren Bedürfnissen:
    • 1.5b: Allgemeine Textbearbeitung (1.1 GB freien Speicherplatz).
    • 7b: DeepSeeks erstes Inferenzmodell (4.7 GB freien Speicherplatz).
    • 8b (4.9 GB freien Speicherplatz).
    • 14b (9 GB freien Speicherplatz).
    • 32b (20 GB freien Speicherplatz).
    • 70b (43 GB freien Speicherplatz).
    • 671b (404 GB freien Speicherplatz).
  2. Kopieren Sie den Modell-Befehl:
    Zum Beispiel ollama run deepseek-r1:1.5b.

Option 2: DeepSeek-Website verwenden

  1. Besuchen Sie die DeepSeek-Website und klicken Sie auf den Modell-Tab, um die neuesten Modelle zu sehen.
  2. Öffnen Sie PowerShell (Admin) oder Terminal (Admin), indem Sie mit der rechten Maustaste auf das Startmenü klicken und PowerShell (Admin) oder Terminal (Admin) auswählen.
  3. Führen Sie die Modellinstallation aus:
    • Kopieren Sie den zuvor gewählten Modellbefehl (z. B. ollama run deepseek-r1:7b) und fügen Sie ihn in PowerShell ein.
    • Drücken Sie Enter, um die Installation zu starten. Warten Sie, bis das Modell heruntergeladen wurde.
    • Das System wird die Datei auf ihre Integrität überprüfen. Je größer das Modell, desto länger kann dieser Schritt dauern.
    • Nach Abschluss des Downloads wird die Erfolgsnachricht angezeigt.


Schritt 3: DeepSeek verwenden

  • Nach der Modellinstallation ändert sich PowerShell in >> send a message for help.
  • Sie befinden sich jetzt im KI-Chat-Interface, in dem Sie mit DeepSeek interagieren können.
  • Sie können sowohl Englisch als auch Chinesisch eingeben. Beachten Sie, dass größere Modelle mehr RAM und CPU-Ressourcen verbrauchen, also stellen Sie sicher, dass Ihr System genug Leistung hat.

Schritt 4: Wie man nach dem Schließen von PowerShell wieder zu DeepSeek zurückkehrt

Wenn Sie PowerShell schließen und die Konversation fortsetzen möchten, folgen Sie diesen Schritten:

  1. Öffnen Sie PowerShell (Admin) erneut über das Startmenü.
  2. Zeigen Sie installierte Modelle an: Geben Sie ollama list ein, um die installierten Modelle zu sehen.
  3. Führen Sie das Modell aus:
    Kopieren Sie den Modellnamen (z. B. deepseek-r1:7b) und geben Sie folgenden Befehl ein:
    ollama run deepseek-r1:7b.

Damit kehren Sie zurück zum DeepSeek-Interface und können die Konversation fortsetzen!

Modell & Preise: DeepSeek-V3 und DeepSeek-R1

In der Welt der Künstlichen Intelligenz und maschinellen Lernens ist das Verständnis der Preisstruktur für die Nutzung von Modellen entscheidend. DeepSeek bietet verschiedene Modelle, die auf „Millionen Tokens“ basieren, um die Kosten für die Verarbeitung von Texten zu berechnen. Ein Token ist die kleinste Einheit, mit der das Modell natürliche Sprache darstellt – es kann ein Wort, eine Zahl oder ein Satzzeichen sein. In dieser Blogbeitrags möchten wir Ihnen die wichtigsten Details zu den Preisen und Modellen vorstellen.

Modelle & Preisdetails

Die folgenden Preisinformationen gelten für die Nutzung der DeepSeek-Modelle basierend auf der Anzahl der verarbeiteten Tokens:

Modell Kontextlänge Maximale Denkkette Maximale Ausgabelänge Preis (Millionen Tokens) Eingabepreis (Cache Hit) Eingabepreis (Cache Miss) Ausgabepreis
deepseek-chat 64K 8K 0,5 CNY (ca. 0,07 USD) 0,1 CNY (ca. 0,01 USD) 2 CNY (ca. 0,28 USD) 8 CNY (ca. 1,11 USD)
deepseek-reasoner 64K 32K 8K 1 CNY (ca. 0,14 USD) 4 CNY (ca. 0,56 USD) 16 CNY (ca. 2,24 USD)

DeepSeek-V3 und DeepSeek-R1 Modelle

  • DeepSeek-V3 (ehemals deepseek-chat) wurde auf eine höhere Leistung und eine größere Kontextlänge (64K Tokens) aufgerüstet. Dieses Modell eignet sich hervorragend für längere und detailliertere Gespräche.
  • DeepSeek-R1 ist das neue Modell von DeepSeek, das als deepseek-reasoner bekannt ist. Es wurde speziell für komplexe Denkprozesse und Schlussfolgerungen entwickelt, wobei die maximale Denkkette auf 32K Tokens erweitert wurde. Dieses Modell eignet sich besonders für Szenarien, in denen eine tiefere Logik oder Erklärung erforderlich ist.

Rabatte und Sonderaktionen

Ab sofort bis zum 8. Februar 2025, 24:00 (Beijing Zeit) können alle Nutzer von DeepSeek-V3 API von attraktiven Rabatten profitieren. Diese Rabatte gelten für die oben genannten Modelle und Preise. Nach diesem Zeitraum werden die Preise wieder auf den ursprünglichen Satz zurückgesetzt. Bitte beachten Sie, dass DeepSeek-R1 von dieser Sonderaktion ausgeschlossen ist.

Denkkette und Cache-Optionen

Die Denkkette im DeepSeek-R1-Modell beschreibt den internen Denkprozess des Modells, der vor der formellen Antwort generiert wird. Diese Phase ist entscheidend für komplexe Anfragen, bei denen das Modell eine tiefere Analyse durchführen muss, bevor es zu einem Ergebnis kommt.

Für DeepSeek-V3 und DeepSeek-R1 gilt, dass die standardmäßige maximale Ausgabelänge 4K Tokens beträgt, sofern nicht anders festgelegt. Um längere Ausgaben zu unterstützen, können Benutzer die max_tokens-Einstellung anpassen.

Wenn Daten im Cache gespeichert sind, sinken die Kosten für die Eingabe von Tokens. Dies ist eine nützliche Option, um Kosten zu sparen, insbesondere bei wiederholten Anfragen oder häufig genutzten Inhalten.

Abrechnungsregeln

Die Abrechnung erfolgt auf Basis des Verbrauchs von Tokens:

  • Kostenberechnung = Verbrauchte Tokens × Modellpreis
  • Der Betrag wird direkt von Ihrem Guthaben oder Geschenk-Guthaben abgezogen. Wenn sowohl Guthaben als auch Geschenk-Guthaben vorhanden sind, wird das Geschenk-Guthaben zuerst belastet.

Bitte beachten Sie, dass die Preise für Produkte sich ändern können. DeepSeek behält sich das Recht vor, die Preise jederzeit zu ändern. Es wird empfohlen, regelmäßig das DeepSeek-Preisübersichtsseite zu besuchen, um die neuesten Informationen zu erhalten.

Fazit

Die Preisstruktur von DeepSeek bietet eine klare und flexible Möglichkeit, die Nutzung der Modelle zu kalkulieren. Die Rabatte für DeepSeek-V3 bis Februar 2025 machen es zu einer besonders attraktiven Option für Unternehmen und Entwickler, die von der fortschrittlichen Technologie profitieren möchten. Achten Sie jedoch darauf, dass die Preise nach dem Aktionszeitraum wieder auf den ursprünglichen Satz zurückgesetzt werden. Nutzen Sie also die Chance, um das Potenzial von DeepSeek für Ihre Projekte zu erschließen.

Für weitere Fragen oder zur Anmeldung für die API-Preise, besuchen Sie bitte die offizielle DeepSeek-Website und profitieren Sie von den aktuellen Sonderaktionen!

DeepSeek-V3: Eine Revolution in der KI-Performance

DeepSeek-V3 stellt einen bedeutenden Fortschritt in der Welt der Künstlichen Intelligenz dar und bietet bemerkenswerte Verbesserungen im Vergleich zu seinen Vorgängermodellen, insbesondere bei der Inferenzgeschwindigkeit. Als ein führendes Open-Source-Modell hat es sich in der aktuellen Rangliste der größten Modelle weltweit behauptet und steht in direkter Konkurrenz zu den fortschrittlichsten proprietären Modellen.

Architektur und Modellgröße

DeepSeek-V3 nutzt die MoE (Mixture of Experts) Architektur, was eine enorme Flexibilität und Effizienz ermöglicht. Mit 37 Milliarden aktivierten Parametern und einer Gesamtzahl von 671 Milliarden Parametern setzt es sich als eines der leistungsfähigsten Modelle im Open-Source-Bereich durch. Zum Vergleich: DeepSeek-V2.5, das Vorgängermodell, hatte nur 21 Milliarden aktive Parameter und eine Gesamtzahl von 236 Milliarden Parametern.

Benchmark-Ergebnisse

In verschiedenen Benchmark-Tests, die die Leistung in verschiedenen Aufgaben messen, übertrifft DeepSeek-V3 die meisten anderen Modelle, darunter auch DeepSeek-V2.5 und konkurrierende Modelle wie Qwen2.5 und Llama3.1. Ein paar herausragende Ergebnisse:

  • MMLU (Massive Multitask Language Understanding): DeepSeek-V3 erzielte beeindruckende 88,5 EM (Exact Match), was eine signifikante Verbesserung gegenüber DeepSeek-V2.5 (80,6 EM) und anderen Modellen wie Llama3.1 (88,6 EM) darstellt.
  • DROP (Reading Comprehension): In dieser Kategorie, die das Verständnis und das Beantworten von Fragen aus Texten misst, erreichte DeepSeek-V3 mit 91,6 eine exzellente Punktzahl, was deutlich besser ist als die 87,8 von DeepSeek-V2.5.
  • Code-Verständnis: DeepSeek-V3 zeigte ebenfalls außergewöhnliche Leistungen im Bereich des Code-Verstehens. Im „HumanEval-Mul“-Test erreichte es eine Erfolgsrate von 82,6 %, was es zu einem der besten Modelle für Code-Generierung macht.

Vielseitigkeit in verschiedenen Sprachen

Besonders bemerkenswert ist auch die Leistung von DeepSeek-V3 in nicht-englischen Sprachen. In chinesischen Tests wie dem CLUEWSC erzielte es eine exzellente Leistung von 90,9 EM und zeigte damit eine bemerkenswerte Sprachfähigkeit über verschiedene Sprachbarrieren hinweg.

Anwendungen und Zukunftsperspektiven

DeepSeek-V3 hat das Potenzial, in zahlreichen Bereichen der KI-Forschung und -Entwicklung neue Maßstäbe zu setzen. Die außergewöhnliche Leistung in der Text- und Code-Verarbeitung sowie in der mathematischen Problemlösung macht es zu einem äußerst wertvollen Werkzeug für Unternehmen, die in den Bereichen maschinelles Lernen, natürliche Sprachverarbeitung und Softwareentwicklung tätig sind.

Die kontinuierliche Verbesserung der Architektur und die Erweiterung der Parameterzahlen eröffnen Möglichkeiten, noch komplexere Aufgaben zu bewältigen. In der Zukunft könnte DeepSeek-V3 als Grundlage für spezialisierte KI-Anwendungen dienen, die in verschiedenen Industrien von großem Nutzen sein werden.

Fazit

DeepSeek-V3 setzt neue Maßstäbe in der Welt der Künstlichen Intelligenz und stellt eine ernsthafte Konkurrenz für sowohl Open-Source- als auch proprietäre Modelle dar. Mit seinen herausragenden Leistungen in verschiedenen Benchmarks und seiner Fähigkeit, in mehreren Sprachen zu arbeiten, zeigt es, dass es nicht nur ein leistungsstarkes Modell ist, sondern auch eines, das vielseitig und zukunftsfähig ist. Es bleibt spannend, wie sich dieses Modell in der kommenden Zeit weiterentwickeln wird und welche Innovationen es für die KI-Community bereithält.