Von Model Garden unterstützte Modelle

Liste der eigenen Modelle von Google

In der folgenden Tabelle sind die eigenen Modelle von Google aufgeführt, die in Model Garden verfügbar sind:

Modellname Modalität Beschreibung Kurzanleitungen
Gemini 2.5 Flash (Vorschau) Sprache, Audio, Vision Denkmodell, das entwickelt wurde, um Preis und Leistung in Einklang zu bringen. Modellkarte
Gemini 2.5 Pro (Vorschau) Sprache, Audio, Vision Thinking Model mit Funktionen der nächsten Generation und verbesserten Funktionen. Modellkarte
Gemini 2.0 Flash Sprache, Audio, Vision Das Arbeitstier für alle alltäglichen Aufgaben und Funktionen bietet eine verbesserte Leistung und unterstützt die Live API in Echtzeit. Modellkarte
Gemini 2.0 Flash-Lite Sprache, Audio, Vision Das schnellste und kosteneffizienteste Flash-Modell. Es bietet eine bessere Qualität als 1.5 zum gleichen Preis und bei gleicher Geschwindigkeit. Modellkarte
Imagen für die Bildgenerierung Vision Erstellen Sie Bilder in Studioqualität im großen Stil mit Text-Prompts. Sie können dieses Modell auch zum Hochskalieren von Bildern verwenden. Modellkarte
Imagen für Bearbeitung und Anpassung Vision Bearbeiten Sie Bilder in Studioqualität oder verwenden Sie Few-Shot-Learning, um sie im großen Stil mit Basisbildern und Text-Prompts oder mit Referenzbildern und Text-Prompts zu erstellen. Modellkarte
Vertex Image Segmentation (Vorabversion) Vision Sie können Text-Prompts verwenden oder Kritzeleien zeichnen, um ein Bild zu segmentieren. Mit der Bildsegmentierung können Sie beispielsweise Objekte erkennen, den Hintergrund eines Bildes entfernen oder den Vordergrund eines Bildes segmentieren. Modellkarte
Imagen für Untertitel und VQA Sprache Generiert eine relevante Beschreibung für ein bestimmtes Bild. Modellkarte
Einbettungen für multimodale Konfigurationen Vision Auf Bildern basierende, generiert Vektoren, die für nachgelagerte Aufgaben wie die Bildklassifizierung und Bildsuche verwendet werden können. Modellkarte
Chirp 2 Speech Chirp 2 ist ein von Google entwickeltes Modell für die automatische Spracherkennung (Automatic Speech Recognition, ASR), das Gesprochenes transkribiert (Speech-to-Text). Im Vergleich zur ersten Generation der Chirp-Modelle bietet Chirp 2 verbesserte Genauigkeit und Geschwindigkeit sowie neue Funktionen wie Zeitstempel auf Wortebene, Modellanpassung und Übersetzung von Gesprochenem. Modellkarte

Liste der Modelle mit Open-Source-Abstimmung oder Bereitstellung von Schemas in Model Garden

In der folgenden Tabelle sind die OSS-Modelle aufgeführt, die Open-Source-Abstimmungs- oder Bereitstellungsschemas in Model Garden unterstützen:

Modellname Modalität Beschreibung Kurzanleitung
Llama 4 Sprache, Vision Eine Familie multimodaler Modelle, die die Mixture-of-Experts-Architektur (MoE) und Early Fusion verwenden. Colab
Modellkarte
Llama 3.3 Sprache Das mehrsprachige Large Language Model (LLM) Meta Llama 3.3 ist ein vortrainiertes und anweisungsorientiertes generatives Modell mit 70 Mrd. Parametern (Text-in/Text-Ausgang). Modellkarte
Flux Vision Ein Transformer-Modell mit 12 Milliarden Parametern, das auf dem Konzept des „Rectified Flow“ basiert und hochwertige Bilder aus Textbeschreibungen generiert. Modellkarte
Prompt-Schutz Sprache LLM-Eingaben vor Jailbreaking-Techniken und indirekten Injections schützen. Modellkarte
Llama 3.2 Sprache Eine Sammlung mehrsprachiger Large Language Models, die vortrainierte und anweisungsorientierte generative Modelle in den Größen 1 B und 3 B sind. Modellkarte
Llama 3.2-Vision Sprache, Vision Eine Sammlung multimodaler Large Language Models, die vortrainierte und anweisungsorientierte generative Modelle für die Bildanalyse in den Größen 11 B und 90 B sind. Diese Modelle sind für die visuelle Erkennung, die Bildanalyse, das Erstellen von Bildunterschriften und das Beantworten allgemeiner Fragen zu einem Bild optimiert. Modellkarte
Llama Guard 3 Sprache Ein vortrainiertes Llama-3.1-8B-Modell, das für die Klassifizierung der Sicherheit von Inhalten optimiert wurde. Modellkarte
Qwen2 Sprache Qwen2 bereitstellen, eine Reihe von Foundation Large Language Models. Colab
Modellkarte
Phi-3 Sprache Bereitstellung von Phi-3, einer Reihe von Foundation Large Language Models. Colab
Modellkarte
E5 Sprache Stellen Sie E5 bereit, eine Reihe von Texteinbettungsmodellen. Colab
Modellkarte
Instant ID Sprache, Vision Stellen Sie InstantID bereit, ein Text-zu-Bild-Generierungsmodell, das die Identität bewahrt. Colab
Modellkarte
Llama 3 Sprache Llama 3-Modelle von Meta (8B, 70B, 405B) in Vertex AI nutzen und damit entwickeln. Modellkarte
Gemma 3 Sprache, Vision Offene Gewichtsmodelle (1B nur Text, 4B, 12B, 27B), die auf derselben Forschung und Technologie basieren, die auch zum Erstellen der Gemini-Modelle von Google verwendet werden. Modellkarte
Gemma 2 Sprache Öffnen Sie Gewichtsmodelle (2B, 7B), die auf derselben Forschung und Technologie basieren, die auch zum Erstellen der Gemini-Modelle von Google verwendet werden. Modellkarte
Gemma Sprache Öffnen Sie Gewichtsmodelle (2B, 7B), die auf derselben Forschung und Technologie basieren, die auch zum Erstellen der Gemini-Modelle von Google verwendet werden. Modellkarte
CodeGemma Sprache Offene Gewichtsmodelle (2B, 7B), die für die Codegenerierung und Codevervollständigung entwickelt wurden und auf der gleichen Forschung und Technologie basieren, die auch zum Erstellen der Gemini-Modelle von Google verwendet werden. Modellkarte
PaliGemma 2 Sprache, Vision Offene Gewichtsmodelle mit 3 Mrd., 10 Mrd. und 28 Mrd. Parametern, die für Aufgaben zur Bilduntertitelung und für Aufgaben zur Beantwortung visueller Fragen entwickelt wurden und auf derselben Forschung und Technologie basieren, die auch zum Erstellen der Gemini-Modelle von Google verwendet werden. Modellkarte
PaliGemma Sprache, Vision Offenes 3B-Gewichtsmodell, das für Aufgaben zur Bildunterschrift und für visuelle Frage- und Antwortaufgaben entwickelt wurde und auf derselben Forschung und Technologie basiert, die auch zum Erstellen der Gemini-Modelle von Google verwendet werden. Modellkarte
ShieldGemma 2 Sprache, Vision Offenes 4B-Gewichtsmodell, das auf dem 4B-IT-Checkpoint von Gemma 3 für die Bildsicherheitsklassifizierung in wichtigen Kategorien trainiert wurde. Es nimmt Bilder entgegen und gibt Sicherheitslabels gemäß den Richtlinien aus. Modellkarte
TxGemma Sprache Offene Gewichtsmodelle (2B, 9B, 27B), die für die therapeutische Entwicklung entwickelt wurden und auf Gemma 2 basieren. Modellkarte
Vicuna v1.5 Sprache Stellen Sie Modelle der Serie Vicuna v1.5 bereit. Dies sind Basismodelle, die von LLama2 für die Textgenerierung optimiert wurden. Modellkarte
NLLB Sprache NLLB-Modelle für die Übersetzung in mehreren Sprachen bereitstellen. Modellkarte
Colab
Mistral-7B Sprache Stellen Sie Mistral-7B bereit, ein Foundation Model für die Textgenerierung. Modellkarte
BioGPT Sprache Stellen Sie BioGPT bereit, ein generatives Textmodell für den biomedizinischen Bereich. Modellkarte
Colab
BiomedCLIP Sprache, Vision Stellen Sie BiomedCLIP bereit, ein multimodales Foundation Model für den biomedizinischen Bereich. Modellkarte
Colab
ImageBind Sprache, Vision,
Audio
Stellen Sie ImageBind bereit, ein grundlegendes Modell für die multimodale Einbettung. Modellkarte
Colab
DITO Sprache, Vision Stellen Sie DITO, ein multimodales Foundation Model für offene Objekterkennungsaufgaben, bereit und optimieren Sie es. Modellkarte
Colab
OWL-ViT v2 Sprache, Vision Stellen Sie OWL-ViT v2 bereit, ein multimodales Foundation Model für offene Vokabularerkennungsaufgaben. Modellkarte
Colab
FaceStylizer (Mediapipe) Vision Eine generative Pipeline, um Bilder menschlicher Gesichter in einen neuen Stil zu transformieren. Modellkarte
Colab
Llama 2 Sprache Llama 2-Grundlagenmodelle von Meta (7B, 13B, 70B) können in Vertex AI optimiert und bereitgestellt werden. Modellkarte
Code Llama Sprache Die Code Llama-Grundlagenmodelle von Meta (7B, 13B, 34B) auf Vertex AI bereitstellen. Modellkarte
Falcon-Anleitung Sprache Falcon-Anleitungsmodelle (7B, 40B) mit PEFT optimieren und bereitstellen. Colab
Modellkarte
OpenLLaMA Sprache OpenLLaMA-Modelle (3B, 7B, 13B) mithilfe von PEFT optimieren und bereitstellen. Colab
Modellkarte
T5-FLAN Sprache T5-FLAN optimieren und bereitstellen (Basis, klein, groß). Modellkarte (Pipeline zur Feinabstimmung enthalten)
BERT Sprache BERT mit PEFT optimieren und bereitstellen. Colab
Modellkarte
BART-large-cnn Sprache Bereitstellung von BART, einem Transformer-Encoder-Encoder-Modell (seq2seq) mit einem bidirektionalen (BERT-ähnlichen) Encoder und einem autoregressiven (GPT-ähnlichen) Decoder. Colab
Modellkarte
RoBERTa-large Sprache RoBERTa-Large mithilfe von PEFT optimieren und bereitstellen. Colab
Modellkarte
XLM-RoBERTa-large Sprache Feinabstimmung und Bereitstellung von XLM-RoBERTa-large (mit einer mehrsprachigen Version von RoBERTa) mithilfe von PEFT. Colab
Modellkarte
Stable Diffusion XL v1.0 Sprache, Vision Stable Diffusion XL v1.0 mit Unterstützung für Text-zu-Bild-Generierung bereitstellen. Colab
Modellkarte
Stable Diffusion XL Lightning Sprache, Vision Stellen Sie Stable Diffusion XL Lightning bereit, ein Text-zu-Bild-Generierungsmodell. Colab
Modellkarte
Stable Diffusion v2.1 Sprache, Vision Stable Diffusion v2.1 (unterstützt Text-zu-Bild-Generierung) mithilfe von Dreambooth optimieren und bereitstellen. Colab
Modellkarte
Stable Diffusion 4x upscaler Sprache, Vision Stable Diffusion 4x Upscaler bereitstellen, der die Superauflösung von textbedingten Bildern unterstützt. Colab
Modellkarte
InstructPix2Pix Sprache, Vision InstructPix2Pix bereitstellen, das Bildbearbeitung mithilfe von Textaufforderungen unterstützt. Colab
Modellkarte
Stable Diffusion Inpainting Sprache, Vision Verfeinern und Bereitstellen von Stable Diffusion Inpainting mit Unterstützung für das Malen in einem maskierten Bild mithilfe einer Textaufforderung. Colab
Modellkarte
SAM Sprache, Vision Die Funktion „Segment Anything“ bereitstellen, die die Zero-Shot-Bildsegmentierung unterstützt. Colab
Modellkarte
Pic2Word Composed Image Retrieval Sprache, Vision Pic2Word mit Unterstützung für multimodale zusammengesetzte Bildabrufe bereitstellen. Colab
Modellkarte
BLIP2 Sprache, Vision BLIP2 bereitstellen, das Bilduntertitel und visuelles Question Answering unterstützt. Colab
Modellkarte
Open-CLIP Sprache, Vision Open-CLIP abstimmen und bereitstellen, das Zero-Shot-Klassifizierung unterstützt. Colab
Modellkarte
F-VLM Sprache, Vision F-VLM bereitstellen, das die Objekterkennung im Bild mit offenem Vokabular unterstützt Colab
Modellkarte
tfhub/EfficientNetV2 Vision TensorFlow Vision-Implementierung des Bildklassifizierungsmodells EfficientNetV2 optimieren und bereitstellen. Colab
Modellkarte
EfficientNetV2 (TIMM) Vision PyTorch-Implementierung des EfficientNetV2-Bild-Klassifizierungsmodells optimieren und bereitstellen. Colab
Modellkarte
Proprietary/EfficientNetV2 Vision Google-eigenen Prüfpunkt des EfficientNetV2-Bildklassifizierungsmodells optimieren und bereitstellen. Colab
Modellkarte
EfficientNetLite (MediaPipe) Vision EfficientNetLite-Bildklassifizierungsmodell über den MediaPipe-Modellersteller optimieren. Colab
Modellkarte
tfvision/vit Vision TensorFlow Vision-Implementierung des ViT-Bildklassifizierungsmodells optimieren und bereitstellen. Colab
Modellkarte
ViT (TIMM) Vision PyTorch-Implementierung des ViT-Bildklassifizierungsmodells optimieren und bereitstellen. Colab
Modellkarte
Proprietary/ViT Vision Google-eigenen Prüfpunkt des ViT-Bildklassifizierungsmodells optimieren und bereitstellen. Colab
Modellkarte
Proprietary/MaxViT Vision Google-eigenen Prüfpunkt des MaxViT-Hybrid-Bildklassifizierungsmodells (CNN + ViT) optimieren und bereitstellen. Colab
Modellkarte
ViT (JAX) Vision JAX-Implementierung des ViT-Bildklassifizierungsmodells optimieren und bereitstellen. Colab
Modellkarte
tfvision/SpineNet Vision TensorFlow Vision-Implementierung des SpineNet-Objekterkennungsmodells optimieren und bereitstellen. Colab
Modellkarte
Proprietary/Spinenet Vision Google-eigenen Prüfpunkt des SpineNet-Objekterkennungsmodells optimieren und bereitstellen. Colab
Modellkarte
tfvision/YOLO Vision TensorFlow Vision-Implementierung des einstufigen YOLO-Objekterkennungsmodells optimieren und bereitstellen. Colab
Modellkarte
Proprietary/YOLO Vision Google-eigenen Prüfpunkt des einstufigen YOLO-Objekterkennungsmodells optimieren und bereitstellen. Colab
Modellkarte
YOLOv8 (Keras) Vision Keras-Implementierung des YOLOv8-Modells zur Objekterkennung optimieren und bereitstellen. Colab
Modellkarte
tfvision/YOLOv7 Vision YOLOv7-Modell für die Objekterkennung optimieren und bereitstellen. Colab
Modellkarte
Video-Objektverfolgung von ByteTrack Vision Mit der Video-Objektverfolgung von ByteTrack eine Batchvorhersage ausführen. Colab
Modellkarte
ResNeSt (TIMM) Vision PyTorch-Implementierung des ResNeSt-Bildklassifizierungsmodells optimieren und bereitstellen. Colab
Modellkarte
ConvNeXt (TIMM) Vision Optimieren und Bereitstellen von ConvNeXt, einem reinen Faltungsmodell für die Bildklassifizierung, das durch das Design von Vision-Transformern inspiriert ist. Colab
Modellkarte
CspNet (TIMM) Vision Bildklassifizierungsmodell CSPNet (Cross Stage Partial Network) optimieren und bereitstellen. Colab
Modellkarte
Inception (TIMM) Vision Inception-Bildklassifizierungsmodell optimieren und bereitstellen. Colab
Modellkarte
DeepLabv3+ (mit Prüfpunkt) Vision DeepLab-v3 Plus-Modell für die semantische Bildsegmentierung optimieren und bereitstellen. Colab
Modellkarte
Faster R-CNN (Detectron2) Vision Detectron2-Implementierung des schnelleren R-CNN-Modells zur Bildobjekterkennung optimieren und bereitstellen. Colab
Modellkarte
RetinaNet (Detectron2) Vision Detectron2-Implementierung des RetinaNet-Modells für die Bildobjekterkennung optimieren und bereitstellen. Colab
Modellkarte
Mask R-CNN (Detectron2) Vision Detectron2-Implementierung des Mask R-CNN-Modells für die Bildobjekterkennung und -segmentierung optimieren und bereitstellen. Colab
Modellkarte
ControlNet Vision Text-zu-Bild-Generierungsmodell von ControlNet optimieren und bereitstellen. Colab
Modellkarte
MobileNet (TIMM) Vision PyTorch-Implementierung des MobileNet-Bildklassifizierungsmodells optimieren und bereitstellen. Colab
Modellkarte
MobileNetV2-Bildklassifizierung (MediaPipe) Vision MobileNetV2-Bildklassifizierungsmodells mit dem MediaPipe-Modell-Maker optimieren. Colab
Modellkarte
Objekterkennung von MobileNetV2 (MediaPipe) Vision MobileNetV2-Objekterkennungsmodells mit dem MediaPipe-Modell-Maker optimieren. Colab
Modellkarte
MobileNet-MultiHW-AVG (MediaPipe) Vision MobileNet-MultiHW-AVG-Objekterkennungsmodell mit dem MediaPipe-Modell-Maker optimieren. Colab
Modellkarte
DeiT Vision DeiT-Modell (Data-Efficient Image Transformers) für die Bildklassifizierung optimieren und bereitstellen. Colab
Modellkarte
BEiT Vision BEiT-Modell (Darstellung eines bidirektionalen Encoders aus Bildtransformatoren) für die Bildklassifizierung optimieren und bereitstellen. Colab
Modellkarte
Handbewegungserkennung (MediaPipe) Vision Modelle zur Handgestenerkennung mithilfe von MediaPipe optimieren und auf dem Gerät bereitstellen. Colab
Modellkarte
Klassifikator für durchschnittliche Worteinbettungen (MediaPipe) Vision Klassifikatormodelle für durchschnittliche Worteinbettungen mithilfe von MediaPipe optimieren und auf dem Gerät bereitstellen. Colab
Modellkarte
MobileBERT-Klassifikator (MediaPipe) Vision MobileBERT-Klassifikatormodelle mithilfe von MediaPipe auf dem Gerät optimieren und bereitstellen. Colab
Modellkarte
MoViNet-Videoclip-Klassifizierung Video MoViNet-Klassifizierungsmodelle für Videoclips optimieren und bereitstellen. Colab
Modellkarte
MoViNet-Videoaktionserkennung Video MoViNet-Modelle für die Aktionserkennung optimieren und bereitstellen. Colab
Modellkarte
Stable Diffusion XL LCM Vision Stellen Sie dieses Modell bereit, das das LCM (Laten Consistency Model) verwendet, um die Generierung von Text zu Bild in latenten Diffusionsmodellen zu verbessern, indem Sie eine schnellere und hochwertige Bilderstellung mit weniger Schritten ermöglichen. Colab
Modellkarte
LLaVA 1.5 Vision, Sprache Stellen Sie LLaVA 1.5-Modelle bereit. Colab
Modellkarte
Pytorch-ZipNeRF Vision, Video Trainieren Sie das Pytorch-ZipNeRF-Modell, eine hochmoderne Implementierung des ZipNeRF-Algorithmus im Pytorch-Framework, die für eine effiziente und genaue 3D-Rekonstruktion aus 2D-Bildern entwickelt wurde. Colab
Modellkarte
Mixtral Sprache Stellen Sie das Mixtral-Modell bereit. Dies ist ein von Mistral AI entwickeltes MoE (Mixture of Experts) LLM-Modell. Modellkarte
Llama 2 (quantisiert) Sprache Quantisierte Version der Llama 2-Modelle von Meta optimieren und bereitstellen. Colab
Modellkarte
LaMa (Große Maskenübermalung) Vision Stellen Sie LaMa bereit, das schnelle Fourier-Faltungen (FFCs), einen hohen empfänglichen Feldwahrnehmungsverlust und große Trainingsmasken verwendet, die ein auflösungsstarkes Bild-Inpainting ermöglichen. Colab
Modellkarte
AutoGluon Tabellarisch Mit AutoGluon können Sie hochpräzise ML- und Deep-Learning-Modelle für tabellarische Daten trainieren und bereitstellen. Colab
Modellkarte
MaMMUT Sprache, Vision Eine Vision-Encoder- und Text-Decoder-Architektur für multimodale Aufgaben wie Visual Question Answering, Bild-Text-Abruf, Text-Bild-Abruf und die Generierung multimodaler Einbettungen. Colab
Modellkarte
Whisper Large Speech Stellen Sie Whisper Large bereit, das hochmoderne Modell von OpenAI für die automatische Spracherkennung (ASR). Colab
Modellkarte

Liste der in Model Garden verfügbaren Partnermodelle

Einige Partnermodelle werden als verwaltete APIs in Vertex AI Model Garden (auch als Model as a Service bezeichnet) angeboten. In der folgenden Tabelle sind die Modelle aufgeführt, die von Google-Partnern in Model Garden verfügbar sind:

Modellname Modalität Beschreibung Kurzanleitung
Claude Opus 4 Sprache, Vision Das bisher leistungsstärkste Modell von Anthropic und das modernste Coding-Modell. Claude Opus 4 bietet eine gleichbleibende Leistung bei langwierigen Aufgaben, die konzentrierten Aufwand und Tausende von Schritten erfordern. Dadurch wird das Spektrum der Aufgaben, die KI-Agents lösen können, erheblich erweitert. Modellkarte
Claude Sonnet 4 Sprache, Vision Das mittelgroße Modell von Anthropic mit überlegener Intelligenz für Anwendungen mit hohem Volumen, z. B. Programmierung, detaillierte Recherche und Agenten. Modellkarte
Claude 3.7 Sonnet von Anthropic Sprache, Vision Branchenführendes Modell für die Programmierung und den Betrieb von KI-Agents – und das erste Claude-Modell, das eine erweiterte Denkweise bietet. Modellkarte
Anthropic Claude 3.5 Sonnet v2 Sprache, Vision Das aktualisierte Claude 3.5 Sonnet ist ein hochmodernes Modell für reale Softwareentwicklungsaufgaben und für von KI-Agenten zu übernehmende Aufgaben. Claude 3.5 Sonnet bietet diese Verbesserungen zum gleichen Preis und mit der gleichen Geschwindigkeit wie sein Vorgänger. Modellkarte
Claude 3.5 Haiku von Anthropic Sprache, Vision Claude 3.5 Haiku, die nächste Generation des schnellsten und kostengünstigsten Modells von Anthropic, eignet sich optimal für Anwendungsfälle, bei denen es auf Geschwindigkeit und Kosteneinsparungen ankommt. Modellkarte
Claude 3 Opus von Anthropic Sprache Ein leistungsstarkes KI-Modell, das bei hochkomplexen Aufgaben Top-Level-Leistung bietet. Sie ist beeindruckend fließend und hat menschenähnliches Verständnis, um mit offenen Prompts und ungesehenen Szenarien zurechtzukommen. Modellkarte
Claude 3 Haiku von Anthropic Sprache Das schnellste Vision- und Textmodell von Anthropic, das nahezu sofortige Antworten auf einfache Anfragen liefert und dabei menschliche Interaktionen nachahmt. Modellkarte
Claude 3.5 Sonnet von Anthropic Sprache Claude 3.5 Sonnet übertrifft Claude 3 Opus von Anthropic in einer Vielzahl von Bewertungen von Anthropic mit der Geschwindigkeit und den Kosten des Mid-Tier-Modells von Anthropic, Claude 3 Sonnet. Modellkarte
DeepSeek-R1-0528 (Vorschau) Sprache Die aktuelle Version des DeepSeek R1-Modells von DeepSeek. Modellkarte
Jamba 1.5 Large (Vorschau) Sprache Jamba 1.5 Large von AI21 Labs wurde für hochwertige Antworten, hohen Durchsatz und wettbewerbsfähige Preise im Vergleich zu anderen Modellen seiner Größenklasse entwickelt. Modellkarte
Jamba 1.5 Mini (Vorschau) Sprache Jamba 1.5 Mini von AI21 Labs bietet ein gutes Gleichgewicht zwischen Qualität, Durchsatz und niedrigen Kosten. Modellkarte
Llama 4 Maverick 17B-128E (GA) Sprache, Vision Das größte und leistungsfähigste Llama 4-Modell mit Programmier-, Schlussfolgerungs- und Bildfunktionen. Llama 4 Maverick 17B-128E ist ein multimodales Modell, das die Mixture-of-Experts-Architektur (MoE) und Early Fusion verwendet. Modellkarte
Llama 4 Scout 17B-16E (GA) Sprache, Vision Llama 4 Scout 17B-16E liefert für seine Größenklasse erstklassige Ergebnisse und übertrifft frühere Llama-Generationen sowie andere offene und proprietäre Modelle bei mehreren Benchmarks. Llama 4 Scout 17B-16E ist ein multimodales Modell, das die MoE-Architektur (Mixture of Experts) und Early Fusion verwendet. Modellkarte
Llama 3.3 (GA) Sprache Llama 3.3 ist ein anweisungsorientiertes Nur-Text-Modell mit 70 Milliarden Parametern, das im Vergleich zu Llama 3.1 70B und Llama 3.2 90B eine verbesserte Leistung bei Nur-Text-Anwendungen bietet. Außerdem erreicht Llama 3.3 70B bei einigen Anwendungen die Leistung von Llama 3.1 405B. Modellkarte
Llama 3.2 (Vorabversion) Sprache, Vision Ein mittelgroßes multimodales Modell mit 90 Milliarden Parametern, das Bildanalyse wie die Analyse von Diagrammen und Grafiken sowie die Bilduntertitelung unterstützt. Modellkarte
Llama 3.1 (GA und Vorabversion) Sprache

Eine Sammlung mehrsprachiger LLMs, die für mehrsprachige Dialoganwendungsfälle optimiert sind und viele der verfügbaren Open-Source- und geschlossenen Chatmodelle bei gängigen Branchenbenchmarks übertreffen.

Llama 3.1 405B ist allgemein verfügbar (GA) und wird pro 1 Million Tokens abgerechnet. Weitere Informationen finden Sie in der Preisliste.

Llama 3.1 8B und Llama 3.1 70B sind kostenlos als Vorabversion verfügbar.

Modellkarte
Mistral OCR (25.05) Sprache, Vision Mistral OCR (25.05) ist eine API zur optischen Zeichenerkennung (Optical Character Recognition, OCR) für das Dokumentverständnis. Das Modell erfasst jedes Element von Dokumenten wie Medien, Text, Tabellen und Gleichungen. Modellkarte
Mistral Small 3.1 (25.03) Sprache Mistral Small 3.1 (25.03) ist die aktuelle Version des Small-Modells von Mistral mit multimodalen Funktionen und einer erweiterten Kontextlänge. Modellkarte
Mistral Large (24.11) Sprache Mistral Large (24.11) ist die nächste Version des Modells Mistral Large (24.07) mit verbesserten Schlussfolgerungs- und Funktionsaufruffunktionen. Modellkarte
Codestral (25.01) Code Ein hochmodernes Modell, das für die Codegenerierung entwickelt wurde, einschließlich Fill-in-the-Middle und Codevervollständigung. Modellkarte