30.3 C
Colombia
sábado, julio 5, 2025

Un modelo de Google Gemini ahora tiene un “dial” para ajustar cuánto razona


“Realmente hemos estado presionando ‘pensando'”, cube Jack Rae, un científico de investigación principal de Deepmind. Dichos modelos, que están construidos para trabajar a través de problemas lógicamente y pasan más tiempo llegando a una respuesta, saltaron a prominencia a principios de este año con el lanzamiento del modelo Deepseek R1. Son atractivos para las empresas de inteligencia synthetic porque pueden mejorar un modelo existente al capacitarlo para abordar un problema pragmáticamente. De esa manera, las compañías pueden evitar tener que construir un nuevo modelo desde cero.

Cuando el modelo AI dedica más tiempo (y energía) A una consulta, cuesta más funcionar. Tablas de clasificación De los modelos de razonamiento muestran que una tarea puede costar más de $ 200 para completarse. La promesa es que este tiempo additional y el dinero ayuda a los modelos de razonamiento a los que mejoran las tareas desafiantes, como analizar el código o recopilar información de muchos documentos.

“Cuanto más pueda iterar sobre ciertas hipótesis y pensamientos”, cube el director técnico de Google Deepmind, Koray Kavukcuoglu, más “encontrará lo correcto”.

Sin embargo, esto no es cierto en todos los casos. “El modelo se detiene demasiado”, cube Tulsee Doshi, quien dirige el equipo de productos en Gemini, refiriéndose específicamente a Gemini Flash 2.5, el modelo lanzado hoy que incluye un management deslizante para que los desarrolladores marquen lo mucho que piensa. “Para las indicaciones simples, el modelo piensa más de lo que necesita”.

Cuando un modelo pasa más tiempo de lo necesario en un problema, hace que el modelo sea costoso para los desarrolladores y empeora la IA. huella ambiental.

Nathan Habib, un ingeniero de Hugging Face que ha estudiado la proliferación de tales modelos de razonamiento, cube que es abundante. En la prisa por mostrar una IA más inteligente, las compañías están buscando modelos de razonamiento como martillos, incluso donde no hay un clavo a la vista, cube Habib. De hecho, cuando se abre anunciado Un nuevo modelo en febrero, dijo que sería el último modelo no razonable de la compañía.

La ganancia de rendimiento es “innegable” para ciertas tareas, cube Habib, pero no para muchos otros, donde las personas normalmente usan IA. Incluso cuando se usa el razonamiento para el problema correcto, las cosas pueden salir mal. Habib me mostró un ejemplo de un modelo de razonamiento líder al que se le pidió que trabajara a través de un problema de química orgánica. Comenzó bien, pero a la mitad de su proceso de razonamiento, las respuestas del modelo comenzaron a parecerse a una disaster: pulverizó “espera, pero …” cientos de veces. Terminó tomando mucho más tiempo de lo que un modelo no condena gastar en una tarea. Kate Olszewska, que trabaja en la evaluación de los modelos de Géminis en Deepmind, cube que los modelos de Google también pueden atascarse en los bucles.

El nuevo dial de “razonamiento” de Google es un intento de resolver ese problema. Por ahora, no está construido para la versión de consumo de Gemini sino para los desarrolladores que están haciendo aplicaciones. Los desarrolladores pueden establecer un presupuesto para la cantidad de potencia informática que debe gastar el modelo en un determinado problema, la thought es rechazar el dial si la tarea no implica mucho razonamiento. Las salidas del modelo son aproximadamente seis veces más caras de generar cuando se enciende el razonamiento.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles