En respuesta a los nuevos modelos de IA eficientes de China, DeepSeek o la propuesta de Alibaba, OpenAI ofrece ahora el nuevo OpenAI o3-mini, curiosamente también un modelo muy rentable que se puede ya usar. Está especialmente pensado para ser usado en ciencia, matemáticas y programación con poca latencia y coste.
El nuevo sistema trae nuevas funciones que harán las delicias de los profesionales que se dediquen a trabajos STEM, quienes además pueden seleccionar el nivel de esfuerzo de razonamiento que quieren aplicar a cada tarea y medir también la latencia. Eso sí, o3-mini no ofrece capacidad de visión, por lo que se recomienda continuar utilizando OpenAI o1 para tareas de razonamiento visual.
Cambia de CMS gratis con expertos
¿Tu CMS te tiene desesperado?

Cambia a un nuevo CMS más rápido y seguro, con inteligencia artificial (IA) e incluso consigue ahorro:
Los usuarios de ChatGPT Plus, Team y Pro podrán acceder a OpenAI o3-mini desde hoy, mientras que la versión para Enterprise llegará en febrero. o3-mini reemplazará a OpenAI o1-mini en el selector de modelos, ofreciendo límites de uso más altos y menor latencia. Como parte de esta mejora, se triplica el límite de uso para usuarios de Plus y Team, pasando de 50 mensajes diarios con o1-mini a 150 con o3-mini. Además, o3-mini ahora funciona con la función de búsqueda para encontrar respuestas actualizadas con enlaces a fuentes relevantes.
Los usuarios del plan gratuito también pueden probar OpenAI o3-mini seleccionando “Reason” en el message composer o generando de nuevo una respuesta. Esta es la primera vez que un modelo de razonamiento está disponible para los usuarios gratuitos de ChatGPT.
En cuanto a la seguridad, OpenAI asegura que, al igual que OpenAI o1, se ha comprobado que o3-mini supera significativamente a GPT-4o en evaluaciones complejas de seguridad y jailbreak.
Noticias relacionadas: Inteligencia artificial (IA)
En resumidas cuentas, el lanzamiento del nuevo modelo de OpenAI responde a la necesidad de continuar ofreciendo un nivel de razonamiento aceptable a la vez que se bajan los costes (un 95% por token desde el lanzamiento de GPT-4, según openAI).







Deja una respuesta