Los modelos de lenguaje grande (LLM) existentes ciertamente tienen mucho valor práctico. Nicholas Carlini, científico investigador de Google DeepMind, compartió en detalle más de 50 ejemplos de cómo usa LLM en su trabajo, abarcando programación, escritura, aprendizaje de nuevas tecnologías y más.
Nicholas cree que los LLM no están sobrevalorados, ya que realmente pueden manejar tareas cada vez más difíciles. En el último año, ha pasado al menos unas horas cada semana interactuando con varios LLM, que le han ayudado a aumentar su velocidad de codificación en al menos un 50% en proyectos de investigación y proyectos secundarios.
Nicholas enumera algunos ejemplos específicos de uso de LLM:
- Construir aplicaciones web completas con tecnologías nunca antes utilizadas
- Aprender a usar nuevos frameworks y herramientas
- Convertir automáticamente programas a C o Rust para mejorar el rendimiento
- Simplificar y reducir grandes bases de código
- Escribir código experimental inicial para artículos de investigación
- Automatizar tareas monótonas y scripts de un solo uso
- Sustituir las búsquedas web para configurar nuevo software
- Ayudar a depurar mensajes de error
Nicholas clasifica estas aplicaciones en dos categorías: ayudar a aprender y automatizar tareas aburridas. Aunque estas aplicaciones pueden no parecer muy llamativas, todas provienen de necesidades de trabajo reales y demuestran el valor de los LLM para automatizar las partes tediosas del trabajo.
Como investigador de seguridad, el trabajo de Nicholas durante la última década ha sido mostrar cómo los modelos de IA pueden fallar en entornos desconocidos. Entiende completamente las limitaciones de estos sistemas. Sin embargo, todavía cree que los LLM han traído el mayor aumento en su productividad laboral desde el nacimiento de Internet.
Nicholas detalla cómo usar LLM para construir aplicaciones completas y aprender nuevas tecnologías. Por ejemplo, usó GPT-4 para escribir un pequeño juego de "Desafío de predicción de capacidades de GPT-4", y la versión inicial de toda la aplicación fue casi completamente realizada por GPT-4.
En cuanto a aprender nuevas tecnologías, Nicholas ilustra cómo usar LLM como tutor para aprender nuevas herramientas como Docker. Comparado con los métodos de aprendizaje tradicionales, es mucho más eficiente hacer que el LLM enseñe directamente el conocimiento necesario.
El propósito de Nicholas al escribir este artículo es demostrar que los LLM ya le han proporcionado mucho valor y ofrecer algunos ejemplos para aquellos que no saben cómo usar LLM. Reconoce que los LLM aún no pueden resolver las partes más difíciles e interesantes del trabajo de un programador, pero ya pueden manejar bien tareas simples, mejorando enormemente la eficiencia del trabajo.
Hace cinco años, los LLM como mucho podían escribir texto que parecía coherente pero no tenía utilidad práctica. Hoy, pueden aumentar la eficiencia de programación de Nicholas en un promedio del 50%. Este progreso es impresionante y sugiere que los LLM podrían traer cambios aún mayores en el futuro.