En respuesta a los nuevos modelos de IA eficientes de China, DeepSeek o la propuesta de Alibaba, OpenAI ofrece ahora el nuevo OpenAI o3-mini, curiosamente también un modelo muy rentable que se puede ya usar. Está especialmente pensado para ser usado en ciencia, matemáticas y programación con poca latencia y coste.
El nuevo sistema trae nuevas funciones que harán las delicias de los profesionales que se dediquen a trabajos STEM, quienes además pueden seleccionar el nivel de esfuerzo de razonamiento que quieren aplicar a cada tarea y medir también la latencia. Eso sí, o3-mini no ofrece capacidad de visión, por lo que se recomienda continuar utilizando OpenAI o1 para tareas de razonamiento visual.
Cambia de CMS gratis con expertos
Cambia a un nuevo CMS más rápido y seguro, con inteligencia artificial (IA) integrada e incluso consigue ahorro. ¡Es posible!

Los usuarios de ChatGPT Plus, Team y Pro podrán acceder a OpenAI o3-mini desde hoy, mientras que la versión para Enterprise llegará en febrero. o3-mini reemplazará a OpenAI o1-mini en el selector de modelos, ofreciendo límites de uso más altos y menor latencia. Como parte de esta mejora, se triplica el límite de uso para usuarios de Plus y Team, pasando de 50 mensajes diarios con o1-mini a 150 con o3-mini. Además, o3-mini ahora funciona con la función de búsqueda para encontrar respuestas actualizadas con enlaces a fuentes relevantes.
Los usuarios del plan gratuito también pueden probar OpenAI o3-mini seleccionando “Reason” en el message composer o generando de nuevo una respuesta. Esta es la primera vez que un modelo de razonamiento está disponible para los usuarios gratuitos de ChatGPT.
En cuanto a la seguridad, OpenAI asegura que, al igual que OpenAI o1, se ha comprobado que o3-mini supera significativamente a GPT-4o en evaluaciones complejas de seguridad y jailbreak.
Noticias relacionadas: Inteligencia artificial (IA)
En resumidas cuentas, el lanzamiento del nuevo modelo de OpenAI responde a la necesidad de continuar ofreciendo un nivel de razonamiento aceptable a la vez que se bajan los costes (un 95% por token desde el lanzamiento de GPT-4, según openAI).






