Dieses französische Startup bringt die generative KI mit seinen kommerziellen und Open-Source-LLMs auf ein neues Niveau.
Mistral AI ist ein Startup für künstliche Intelligenz , das große Sprachmodelle (LLMs) erstellt. Das in Paris, Frankreich, ansässige und von ehemaligen Forschern bei Google DeepMind und Meta gegründete Unternehmen Mistral ist für seine transparenten, portablen, anpassbaren und kostengünstigen Modelle bekannt, die weniger Rechenressourcen benötigen als andere beliebte LLMs.
Mit beträchtlicher Unterstützung von namhaften Investoren wie Microsoft und Andreessen Horowitz – und einer gemeldeten Bewertung von 5 Milliarden US-Dollar – positioniert sich Mistral als ernstzunehmender Konkurrent auf dem zunehmend überfüllten Markt für generative KI . Das beste kommerzielle LLM des Unternehmens übertrifft die von etablierten Unternehmen wie Google und Anthropic entwickelten LLMs in mehreren Branchenbenchmarks und macht sogar OpenAIs GPT-4 – das oft als Goldstandard in Sachen KI-Modellleistung angesehen wird – Konkurrenz.
Das Unternehmen stellt außerdem eine Reihe von Open-Source-Modellen her, die jeder kostenlos verwenden und ändern kann. Im Gegensatz zu einigen der mächtigsten KI-Unternehmen hat Mistral seine LLMs zugänglicher gemacht und argumentiert, dass „wir durch das Trainieren unserer eigenen Modelle, ihre offene Veröffentlichung und die Förderung von Community-Beiträgen eine glaubwürdige Alternative zum entstehenden KI-Oligopol aufbauen können.“
Was bietet Mistral AI?
Mistral AI bietet mehrere LL.M. an , sowohl kommerziell als auch Open Source. Jeder hat seine eigenen Stärken und Fähigkeiten.
Kommerzielle Modelle
Alle kommerziellen Modelle von Mistral sind Closed Source und nur über die API verfügbar.
Mistral Groß
- Das fortschrittlichste Modell von Mistral AI.
- Ideal für komplexe Aufgaben wie die synthetische Textgenerierung und Codegenerierung.
- Belegt den zweiten Platz nach GPT-4 in mehreren Branchen-Benchmarks .
- Verfügt über ein maximales Kontextfenster von 32.000 Token.
- Fließende Muttersprachen: Englisch, Französisch, Spanisch, Deutsch und Italienisch sowie Code.
Mistral Small
- Konzentriert sich auf effizientes Denken für Arbeitslasten mit geringer Latenz.
- Ideal für einfache Aufgaben, die in großen Mengen erledigt werden können, wie etwa Textgenerierung und Textklassifizierung.
- Verfügt über ein maximales Kontextfenster von 32.000 Token.
- Fließende Muttersprachen: Englisch, Französisch, Spanisch, Deutsch und Italienisch sowie Code.
Mistral Embed
- Wandelt Text in numerische Darstellungen (auch „ Einbettungen “ genannt) um, sodass Wörter auf eine für einen Computer verständliche Weise verarbeitet und analysiert werden können.
- Ideal für Aufgaben wie Stimmungsanalyse und Textklassifizierung.
- Derzeit nur auf Englisch verfügbar.
Open Source-Modelle
Alle Open-Source-Modelle von Mistral sind kostenlos unter Apache 2.0 erhältlich, einer völlig freizügigen Lizenz, die es jedem ermöglicht, sie überall und ohne Einschränkungen zu verwenden.
Mistral 7B
- Entwickelt für einfache Anpassung und schnelle Bereitstellung.
- Kann große Datenmengen schneller und mit minimalem Rechenaufwand verarbeiten.
- Trainiert anhand eines Datensatzes mit etwa 7 Milliarden Parametern, übertrifft es jedoch Llama 2 (13 Milliarden Parameter) und passt zu Modellen mit bis zu 30 Milliarden Parametern.
- Verfügt über ein maximales Kontextfenster von 32.000 Token.
- Kann in Englisch und Code verwendet werden.
Mixtral 8x7B
- Entwickelt für gute Leistung bei minimalem Rechenaufwand.
- Verwendet eine Mischung aus Expertenarchitekturen; nutzt nur etwa 12 Milliarden seiner potenziellen 45 Milliarden Parameter für die Inferenz.
- Übertrifft bei den meisten Benchmarks sowohl Llama 2 (70 Milliarden Parameter) als auch GPT-3.5 (175 Milliarden Parameter).
- Verfügt über ein maximales Kontextfenster von 32.000 Token.
- Fließende Muttersprachen: Englisch, Französisch, Spanisch, Deutsch und Italienisch sowie Code.
Mixtral 8x22B
- Das fortschrittlichste Open-Source-Modell von Mistral AI
- Ideal für Aufgaben wie das Zusammenfassen großer Dokumente oder das Erstellen großer Textmengen.
- Eine größere Version von Mixtral 8x7B; verwendet nur etwa 39 Milliarden seiner potenziellen 141 Milliarden Parameter für die Inferenz.
- Übertrifft Llama 2 70B und Cohere Command R und R+ im Preis-Leistungs-Verhältnis.
- Verfügt über ein maximales Kontextfenster von 64.000 Token.
- Fließende Muttersprachen: Englisch, Französisch, Spanisch, Deutsch und Italienisch sowie Code.
die Katze
Zusätzlich zu seinen LLMs bietet Mistral AI Le Chat an , einen KI- Chatbot , der Inhalte generieren und Gespräche mit Benutzern führen kann – ähnlich wie Plattformen wie ChatGPT , Gemini und Claude . Bei Mistral AI können Benutzer auch wählen, welches seiner Modelle sie im Hintergrund laufen haben möchten – Mistral Large für besseres Denken, Mistral Small für Geschwindigkeit und Kosteneffizienz oder Mistral Next, ein Prototypmodell, das darauf ausgelegt ist, kurze und präzise Antworten zu geben.
Le Chat hat allerdings keinen Echtzeitzugriff auf das Internet, sodass seine Antworten nicht immer auf dem neuesten Stand sein können. Und wie jedes generative KI-Tool kann es voreingenommene Antworten produzieren und Fehler machen . Aber Mistral sagt, es arbeite daran, seine Modelle so „nützlich und so wenig voreingenommen wie möglich“ zu machen.
Le Chat ist kostenlos und kann unter chat.mistral.ai/chat aufgerufen werden . Das Unternehmen entwickelt außerdem eine kostenpflichtige Version für seine Unternehmenskunden.
Wofür werden die Modelle von Mistral AI verwendet?
Bei allen LLMs von Mistral AI handelt es sich um Basismodelle. Das bedeutet, dass sie feinabgestimmt und für eine breite Palette von Aufgaben der natürlichen Sprachverarbeitung verwendet werden können, wie zum Beispiel:
- Chatbots: Chatbots werden in die Lage versetzt, natürlichsprachliche Anfragen von Benutzern zu verstehen und präziser und menschlicher zu antworten.
- Textzusammenfassung: Die Essenz von Artikeln und Dokumenten extrahieren und ihre wichtigsten Punkte in einer prägnanten Übersicht zusammenfassen.
- Inhaltserstellung: Generieren von Texten in natürlicher Sprache, einschließlich E-Mails, Social-Media-Texten, Kurzgeschichten, Anschreiben und vielem mehr.
- Textklassifizierung: Klassifizierung von Text in verschiedene Kategorien, z. B. Kennzeichnung von E-Mails als Spam oder Nicht-Spam anhand ihres Inhalts.
- Code-Vervollständigung: Generieren von Code-Ausschnitten, Optimieren des vorhandenen Codes und Vorschlagen von Fehlerbehebungen, um den Entwicklungsprozess zu beschleunigen.
So verwenden Sie die Modelle von Mistral AI
Alle Modelle von Mistral AI finden Sie auf der Website des Unternehmens . Sie sind auch auf Plattformen wie Amazon Bedrock , Databricks , Snowflake Cortex und Azure AI verfügbar .
Um die Modelle direkt auf der Website von Mistral AI zu verwenden, gehen Sie zu La Plateforme , der KI-Entwicklungs- und Bereitstellungsplattform des Unternehmens. Dort können Sie Leitplanken einrichten und die Modelle Ihren Anforderungen entsprechend optimieren und sie dann in Ihre eigenen Anwendungen und Projekte integrieren. Die Preisspanne hängt vom verwendeten Modell ab. Beispielsweise kostet Mistral 7B 0,25 USD pro 1 Million Eingabetoken, während Mistral Large 24 USD pro 1 Million Ausgabetoken kostet.
Sie können auch über Le Chat, den kostenlosen KI-Chatbot des Unternehmens, mit den großen und kleinen Modellen von Mistral interagieren.
Ist Mistral AI besser als GPT-4?
Mistral AIs fortschrittlichster LLM, Mistral Large, ist am ehesten mit GPT-4 vergleichbar. Dennoch erzielte GPT-4 in allen Leistungsbenchmarks bessere Ergebnisse als Mistral Large, was darauf hindeutet, dass es in einer Reihe von NLP-Aufgaben sowie in Mathematik, Geschichte, Informatik und allgemeinem gesunden Menschenverstand überlegen ist.
Mistral Large ist jedoch günstiger in der Nutzung als GPT-4. GPT-4 kostet 30 USD pro 1 Billion Input-Token und 60 USD pro 1 Million Output-Token, während Large 8 USD pro 1 Million Input-Token und 24 USD pro 1 Million Token kostet. Da Large bei diesen Leistungsbenchmarks nur um wenige Prozentpunkte hinter GPT-4 zurückliegt, könnte es eine geeignete Wahl für Organisationen sein, die nach einem leistungsstarken LLM zu geringeren Kosten suchen.
Mit Blick auf die Zukunft dürfte sich dieses Preis-Leistungs-Verhältnis mit der Markteinführung weiterer Modelle sogar noch verbessern.
„Wettbewerb ist immer gut für die Nutzer. Jeden Tag gibt es viele Innovationen“, sagt Baris Gultekin, Leiter der KI bei Snowflake , einem Partnerunternehmen von Mistral. „Das senkt die Kosten für die Kunden und verbessert die Leistung. Und ich gehe davon aus, dass das so weitergeht.“
Wie funktionieren die Modelle von Mistral AI?
Wie andere große Sprachmodelle werden die Modelle von Mistral AI anhand eines riesigen Korpus aus Textdaten aus dem Internet trainiert, die sie dann für alle Arten von Aufgaben der natürlichen Sprachverarbeitung (NLP) verwenden können . Einige der Modelle von Mistral zeichnen sich jedoch durch Schlüsselfunktionen aus, die sie von der Masse abheben.
Mischung aus Experten Architektur
Die Modelle von Mistral basieren auf einer Transformer-Architektur , einer Art neuronalem Netzwerk , das Text generiert, indem es das nächstwahrscheinlichste Wort oder die nächstwahrscheinlichste Phrase vorhersagt. Einige von ihnen (Mixtral 8x7B und 8x22B) gehen jedoch noch einen Schritt weiter und verwenden eine Architektur mit einer Mischung aus Experten. Das bedeutet, dass mehrere kleinere Modelle (sogenannte „Experten“) verwendet werden, die nur zu bestimmten Zeiten aktiv sind. Dadurch wird die Leistung verbessert und der Rechenaufwand verringert.
Obwohl sie tendenziell kleiner und billiger sind als transformatorbasierte Modelle, weisen LLMs, die MoE-Architekturen verwenden, laut Gultekin eine ebenso gute oder sogar bessere Leistung auf, was sie zu einer attraktiven Alternative macht. „Wenn ein LLM schneller und kleiner zu betreiben ist, ist es auch kostengünstiger“, sagte er gegenüber Built In. „Und das ist attraktiv.“
Open Source
Viele der Modelle von Mistral AI sind Open Source, das heißt, ihr Code und ihre Daten – sowie ihre Gewichte oder Parameter, die während des Trainings erlernt werden – sind für jeden frei zugänglich, der sie abrufen, verwenden und ändern kann. Bei Open-Source-Modellen können Benutzer sehen, wie sie funktionieren, und sie für ihre eigenen Zwecke anpassen, sagt Atul Deo, General Manager von Amazon Bedrock , das ebenfalls mit Mistral zusammenarbeitet.
„Sie können dem offenen Modell Ihre eigenen Inferenzoptimierungen hinzufügen und bestimmte Feinabstimmungen vornehmen, die mit einem proprietären Modell nicht möglich sind, da viele Details transparent sind“, sagte Deo gegenüber Built In. „Open-Source-Modelle bieten Ihnen theoretisch viel mehr Flexibilität, um am Modell herumzubasteln.“
Die Tatsache, dass einige der Modelle von Mistral AI Open Source sind, ist besonders nützlich für Unternehmen in stark regulierten Branchen wie Banken und Krankenhäusern, in denen Datenschutz und -kontrolle von entscheidender Bedeutung sind, sagte Erika Bahr, Gründerin und CEO des KI-Unternehmens Daxe . Mit Open-Source-LLMs können diese Unternehmen sie optimieren und lokal in einer sicheren Umgebung ausführen, ohne dass die Gefahr eines Informationslecks besteht.
„Um die höchsten Sicherheitsstandards zu erreichen, muss man sehen können, wohin die Daten gehen“, sagte Bahr gegenüber Built In. „Wenn man den gesamten Code sehen kann, kann man tatsächlich überprüfen, wohin die Daten gehen, wenn sie durch das Modell gehen.“
Funktionen zum Funktionsaufruf
Mistral sagt, dass die Modelle Large, Small und 8x22B über native Funktionsaufruffunktionen verfügen , was bedeutet, dass sie in andere Plattformen integriert werden können und Aufgaben ausführen können, die über ihre ursprünglichen Fähigkeiten hinausgehen. Dies trägt dazu bei, die Modelle genauer, effizienter und vielseitiger zu machen.
„Sie können Feinabstimmungen unter der Plattform eines anderen Systems vornehmen“, sagte Bahr. „Sie können also tatsächlich das nutzen, was sie getan haben, und es dann noch weiter verfeinern.“ Bahr sagte beispielsweise, sie sei zu einem Hackathon gegangen, bei dem der Gewinner ein Mistral LLM in ein Pac-Man-Spiel integrierte und es dann so feinabstimmte, dass es bestimmte Bewegungen ausführte, sodass es das Spiel gewann.
Im Allgemeinen ist der Funktionsaufruf auch für Aufgaben wie das Abrufen von Daten in Echtzeit, das Durchführen von Berechnungen und den Zugriff auf Datenbanken nützlich stubhub.
Mehrsprachig
Während viele LLMs nur eine einzige Sprache beherrschen, sprechen die meisten Modelle von Mistral fließend Englisch, Französisch, Spanisch, Deutsch und Italienisch – was bedeutet, dass sie laut Angaben des Unternehmens ein „differenzierteres Verständnis“ sowohl der Grammatik als auch des kulturellen Kontexts haben. Sie können daher für komplexe mehrsprachige Denkaufgaben verwendet werden, einschließlich Textverständnis und Übersetzung .
Häufig gestellte Fragen
Mistral AI ist ein französisches Startup für künstliche Intelligenz, das kommerzielle und Open-Source-Large Language Models (LLMs) erstellt. Das Unternehmen wurde 2023 von ehemaligen Forschern bei Meta und DeepMind gegründet. Es ist bekannt für seine transparenten, portablen, anpassbaren und kostengünstigen Basismodelle, die weniger Rechenressourcen erfordern als die anderer KI-Anbieter.
Um die Modelle von Mistral AI zu verwenden, können Sie auf die Website des Unternehmens oder auf La Plateforme gehen, die Plattform des Unternehmens für die Entwicklung und Bereitstellung von KI. Sie können Leitplanken einrichten und die Modelle nach Ihren Vorgaben optimieren und sie dann in Ihre eigenen Anwendungen und Projekte integrieren. Sie können auch über Le Chat, einen KI-Chatbot, der Text generieren und Gespräche führen kann, mit den großen und kleinen Modellen von Mistral interagieren.
Laut Mistral AI schnitt GPT-4 in allen Leistungsbenchmarks besser ab als Mistral Large, was darauf hindeutet, dass es das bessere Modell ist. Allerdings ist Large im Betrieb günstiger als GPT-4. Da Large in diesen Leistungsbenchmarks nur um wenige Prozentpunkte hinter GPT-4 zurückblieb, könnte es eine geeignete Wahl für Organisationen sein, die nach einem leistungsstarken LLM zu geringeren Kosten suchen.
Mistral AI wurde vom ehemaligen DeepMind-Mitarbeiter Arthur Mensch und den ehemaligen Meta-Forschern Guillaume Lample und Timothée Lacroix gegründet. Das Unternehmen wurde im April 2023 gegründet.