¿No hará que los modelos de IA también sean más problemáticos o potencialmente peligrosos? Siempre he dicho en foros y conferencias sobre seguridad que es un gran cambio. Una vez que tengamos sistemas tipo agente funcionando, la IA se sentirá muy diferente a los sistemas actuales, que básicamente son sistemas de preguntas y respuestas pasivos, porque de repente se convertirán en aprendices activos. Por supuesto, serán más útiles también, porque podrán realizar tareas para ti, lograrlas realmente. Pero tendremos que ser mucho más cuidadosos. Siempre he abogado por cajas de arena de simulación reforzadas para probar agentes antes de ponerlos en la web. Hay muchas otras propuestas, pero creo que la industria debería comenzar a pensar seriamente en la llegada de esos sistemas. Tal vez sea dentro de un par de años, o incluso antes. Pero es una clase diferente de sistemas.
Anteriormente mencionaste que tomó más tiempo probar tu modelo más poderoso, Gemini Ultra. ¿Es esto solo debido a la velocidad de desarrollo, o fue porque el modelo en realidad era más problemático? En realidad fue ambas cosas. Cuanto mayor es el modelo, en primer lugar, algunas cosas son más complicadas de hacer al afinarlo, por lo que lleva más tiempo. Los modelos más grandes también tienen más capacidades que necesitas probar. Espero que lo que te estés dando cuenta como Google DeepMind se esté consolidando como una única organización es que lanzamos cosas temprano y enviamos cosas experimentalmente a un pequeño número de personas, vemos lo que nuestros probadores confiables nos van a decir, y luego podemos modificar las cosas antes del lanzamiento general.
Hablando de seguridad, ¿cómo están progresando las discusiones con organizaciones gubernamentales como el Instituto de Seguridad de IA del Reino Unido? Va bien. No estoy seguro de lo que se me permite decir, ya que todo es un poco confidencial, pero por supuesto tienen acceso a nuestros modelos punteros, y estaban probando Ultra, y seguimos trabajando estrechamente con ellos. Creo que el equivalente estadounidense se está estableciendo ahora. Esos son buenos resultados de la Cumbre de Seguridad de IA de Bletchly Park. Pueden verificar cosas a las que no tenemos autorización de seguridad para verificar, como cosas CBRN [armas químicas, biológicas, radiológicas y nucleares]. Estos sistemas actuales, no creo que sean lo suficientemente poderosos como para hacer algo materialmente preocupante. Pero es bueno fortalecer ese músculo ahora en todos los lados, el lado gubernamental, el lado de la industria y el de la academia. Y creo que probablemente los sistemas de agentes serán el próximo gran cambio. Veremos mejoras incrementales en el camino, y puede haber algunas mejoras grandes y geniales, pero se sentirán diferentes.
Deja una respuesta