c't 23/2023
S. 28
Titel
Die eigene Sprach-KI: Hosten
Bild: Moritz Reichartz

KI-Heimstätten

Wo man das eigene generative Sprachmodell betreiben kann

Large Language Models benötigen Rechenpower satt, die man nicht unter dem Schreibtisch stehen hat. Hosting-Provider haben sich auf den KI-Boom eingestellt und bieten flexible, KI-optimierte Server – vor allem in der Cloud.

Von Holger Bleich

Vor wenigen Monaten noch gab es keine Optionen: Wer eine leistungsfähige Sprach-KI nutzen oder integrieren wollte, kam an ChatGPT kaum vorbei. Doch der Zugriff aufs API hat Nachteile. Er kostet Geld und ist beschränkt auf das Large Language Model (LLM) GPT 3.5 oder 4.

Dies hat sich zum Glück geändert: Frei verfügbare, vortrainierte LLMs ermöglichen es Privatleuten und Unternehmen, eine eigene Sprach-KI zu hosten. In diesem Artikel erfahren Sie, wohin Sie solche Installationen auslagern können, wenn die eigenen Ressourcen nicht ausreichen. Flexible und skalierbare Cloud-Instanzen bieten sich besonders an.

Kommentieren