Dopo un determinato periodo di tempo, i modelli MaaS vengono ritirati e in genere sostituiti con versioni più recenti. Per consentirti di eseguire il test e la migrazione ai modelli più recenti, in questa pagina sono elencati tutti i modelli ritirati, insieme alla relativa data di disattivazione.
Claude 3 Sonnet di Anthropic
Claude 3 Sonnet di Anthropic è deprecato dal 21 gennaio 2025 e verrà disattivato il 21 luglio 2025. Claude 3 Sonnet è disponibile solo per i clienti esistenti.
Claude 3 Sonnet è progettato per essere affidabile per le implementazioni di IA su larga scala in una serie di casi d'uso. Claude 3 Sonnet è ottimizzato per i seguenti casi d'uso:
Trattamento dei dati, inclusa la generazione RAG (Retrieval-Augmented Generation) e il recupero della ricerca.
Attività di vendita, come consigli sui prodotti, previsioni e marketing mirato.
Attività che consentono di risparmiare tempo, come la generazione di codice, il controllo qualità e il riconoscimento ottico dei caratteri (OCR) nelle immagini.
Attività di visione, come l'elaborazione di immagini per restituire un output di testo. Inoltre, analisi di tabelle, grafici, diagrammi tecnici, report e altri contenuti visivi.
La tabella seguente mostra le quote massime e la lunghezza del contesto supportata per Claude 3 Sonnet in ogni regione.
Regione | Quote | Lunghezza del contesto supportata |
---|---|---|
us-east5 (Ohio) |
Fino a 10 QPM, 30.000 TPM | 200.000 token |
Utilizzo di Claude 3 Sonnet
Per i comandi SDK e curl, utilizza claude-3-sonnet@20240229
come nome del modello.
Prezzi
Per gli utenti esistenti di Claude 3 Sonnet di Anthropic, i prezzi rimangono invariati. Per maggiori dettagli, consulta la pagina Prezzi.
Modelli di IA di Mistral
Mistral Large (24.07) e Codestral (24.05) sono stati ritirati a partire dal 30 gennaio 2025 e verranno chiusi il 29 luglio 2025. Questi due modelli sono disponibili solo per i clienti esistenti.
Mistral Large (24.07) (mistral-large@2407
) è il modello di punta di Mistral AI per la generazione di testo. Raggiunge capacità di ragionamento di primo livello e può essere utilizzato per attività multilingue complesse, tra cui comprensione del testo, trasformazione e generazione di codice.
Codestral (24.05) (codestral@2405
) è un modello generativo che
è stato progettato e ottimizzato specificamente per le attività di generazione di codice,
tra cui il completamento intermedio e il completamento del codice. Codestral (24.05) è stato addestrato su più di 80 linguaggi di programmazione, il che gli consente di avere un buon rendimento sia con i linguaggi comuni sia con quelli meno comuni.
Aree geografiche supportate
Mistral Large (24,07)
Regione | Quote | Lunghezza del contesto supportata |
---|---|---|
us-central1 |
Fino a 60 QPM, 400.000 TPM | 128.000 token |
europe-west4 |
Fino a 60 QPM, 400.000 TPM | 128.000 token |
Codestral (24.05)
Regione | Quote | Lunghezza del contesto supportata |
---|---|---|
us-central1 |
Fino a 60 QPM, 400.000 TPM | 32.000 token |
europe-west4 |
Fino a 60 QPM, 400.000 TPM | 32.000 token |
Prezzi
Per gli utenti esistenti di Mistral Large (24.07) e Codestral (24.05), i prezzi rimangono invariati. Per maggiori dettagli, consulta la pagina Prezzi.