Mistral AI lanza dos nuevos modelos de IA para aplicaciones en el dispositivo y en el borde

Mistral AI ha anunciado el lanzamiento de dos nuevos modelos, llamados Ministral 3B y Ministral 8B. Estos modelos se centran en la computación en el dispositivo y las aplicaciones en el borde, mejorando capacidades en áreas como el razonamiento del conocimiento y la llamada a funciones.

Estos modelos pueden manejar hasta 128k de longitud de contexto y ofrecen un patrón de atención de ventana deslizante único para una inferencia eficiente, especialmente en entornos con recursos limitados. Su objetivo es satisfacer la demanda de inferencia local y respetuosa de la privacidad en aplicaciones como la traducción en el dispositivo, los asistentes inteligentes, el análisis local y la robótica. Los modelos sirven como intermediarios para modelos más grandes, mejorando la asignación de tareas y la llamada a API en diversos contextos.

Según los benchmarks, los modelos Ministral superan a sus competidores, incluyendo a Gemma 2 2B y Llama 3.2 3B y Llama 3.1 8B.

Ambos modelos están disponibles para uso comercial, con un precio de $0.04 por millón de tokens para el modelo Ministral 3B y $0.1 para el modelo Ministral 8B. Los pesos del modelo de 8B Instruct estarán disponibles para uso en investigación. El mes pasado, Mistral AI lanzó Pixtral 12B, un modelo capaz de procesar imágenes y texto. Con aproximadamente 12 mil millones de parámetros, utiliza codificación de visión para interpretar imágenes junto con texto.

Un día después de que Meta lanzara Llama 3.1, Mistral AI también presentó Mistral Large 2, la última generación de su modelo principal que ofrece mejoras sustanciales en la generación de código, matemáticas y soporte multilingüe. El modelo presenta capacidades avanzadas de llamada a funciones y está disponible en la Plataforma.

Mistral AI ha anunciado el lanzamiento de dos nuevos modelos llamados Ministral 3B y Ministral 8B. Estos modelos se enfocan en la computación en el dispositivo y las aplicaciones en el borde, mejorando capacidades en áreas como el razonamiento del conocimiento y la llamada a funciones.

Estos modelos pueden manejar hasta 128k de longitud de contexto y ofrecen un patrón de atención de ventana deslizante único para una inferencia eficiente, especialmente en entornos con recursos limitados. Su objetivo es satisfacer la demanda de inferencia local y respetuosa de la privacidad en aplicaciones como la traducción en el dispositivo, los asistentes inteligentes, el análisis local y la robótica. Los modelos sirven como intermediarios para modelos más grandes, mejorando la asignación de tareas y la llamada a API en diversos contextos.

Según los benchmarks, los modelos Ministral superan a sus competidores, incluyendo a Gemma 2 2B y Llama 3.2 3B y Llama 3.1 8B.

Ambos modelos están disponibles para uso comercial, con un precio de $0.04 por millón de tokens para el modelo Ministral 3B y $0.1 para el modelo Ministral 8B. Los pesos del modelo de 8B Instruct estarán disponibles para uso en investigación. El mes pasado, Mistral AI lanzó Pixtral 12B, un modelo capaz de procesar imágenes y texto. Con aproximadamente 12 mil millones de parámetros, utiliza codificación de visión para interpretar imágenes junto con texto.

Un día después de que Meta lanzara Llama 3.1, Mistral AI también presentó Mistral Large 2, la última generación de su modelo principal que ofrece mejoras sustanciales en la generación de código, matemáticas y soporte multilingüe. El modelo presenta capacidades avanzadas de llamada a funciones y está disponible en la Plataforma.

Principales preguntas frecuentes (FAQ)

1. ¿Cuáles son los nuevos modelos lanzados por Mistral AI?
Mistral AI ha lanzado dos nuevos modelos llamados Ministral 3B y Ministral 8B.

2. ¿En qué se centran estos modelos?
Estos modelos se centran en la computación en el dispositivo y las aplicaciones en el borde, mejorando capacidades en áreas como el razonamiento del conocimiento y la llamada a funciones.

3. ¿Qué capacidad de longitud de contexto tienen estos modelos?
Los modelos pueden manejar hasta 128k de longitud de contexto.

4. ¿Qué beneficios ofrecen estos modelos en entornos con recursos limitados?
Estos modelos ofrecen un patrón de atención de ventana deslizante único para una inferencia eficiente en entornos con recursos limitados.

5. ¿Para qué aplicaciones están dirigidos estos modelos?
Los modelos están dirigidos a aplicaciones como la traducción en el dispositivo, los asistentes inteligentes, el análisis local y la robótica, que requieren inferencia local y respetuosa de la privacidad.

6. ¿Cómo se comparan los modelos Ministral con sus competidores?
Según los benchmarks, los modelos Ministral superan a sus competidores, incluyendo a Gemma 2 2B y Llama 3.2 3B y Llama 3.1 8B.

7. ¿Cuál es el precio de estos modelos para uso comercial?
El modelo Ministral 3B tiene un precio de $0.04 por millón de tokens, mientras que el modelo Ministral 8B tiene un precio de $0.1 por millón de tokens.

8. ¿Los pesos del modelo Ministral 8B Instruct están disponibles para uso en investigación?
Sí, los pesos del modelo Ministral 8B Instruct están disponibles para uso en investigación.

9. ¿Qué otros modelos ha lanzado Mistral AI recientemente?
Mistral AI también lanzó recientemente Pixtral 12B, un modelo capaz de procesar imágenes y texto, y Mistral Large 2, la última generación de su modelo principal con mejoras sustanciales en la generación de código, matemáticas y soporte multilingüe.

10. ¿Dónde se puede acceder al modelo Mistral Large 2?
El modelo Mistral Large 2 está disponible en la Plataforma de Mistral AI.

Definiciones clave

– Inferencia: Proceso de deducción o conclusión obtenido a partir de datos o información disponible.
– Computación en el dispositivo: Realización de operaciones y procesamiento de datos directamente en el dispositivo, sin necesidad de depender de una conexión a la nube o servidores externos.
– Razonamiento del conocimiento: Proceso de inferir nuevas conclusiones basadas en conocimientos previos.
– Asistentes inteligentes: Programas o sistemas que pueden realizar tareas específicas con capacidad de aprendizaje y adaptabilidad.
– API: Siglas en inglés de Interfaz de Programación de Aplicaciones, que permite la comunicación y la interacción entre diferentes software y aplicaciones.

Enlaces relacionados
https://www.mistral.ai
https://www.pixtral.ai

The source of the article is from the blog smartphonemagazine.nl