AI impulsiona a eficiência no trabalho: Cientistas da DeepMind compartilham 50 casos práticos

Nicholas Carlini demonstrou 50 casos práticos de aplicação para aumentar a eficiência usando grandes modelos de linguagem.

Os modelos de linguagem de grande escala (LLM) existentes realmente têm muito valor prático. Nicholas Carlini, cientista de pesquisa do Google DeepMind, compartilhou detalhadamente mais de 50 exemplos de uso de LLMs em seu trabalho, abrangendo programação, escrita, aprendizado de novas tecnologias e outros aspectos.

Nicholas acredita que os LLMs não estão sendo excessivamente exagerados, pois eles realmente podem lidar com tarefas cada vez mais difíceis. No último ano, ele passou pelo menos algumas horas por semana interagindo com vários LLMs, e esses modelos o ajudaram a aumentar sua velocidade de codificação em pelo menos 50% em projetos de pesquisa e projetos paralelos.

Nicholas listou alguns exemplos específicos de uso de LLMs:

  • Construir aplicações web inteiras usando tecnologias nunca usadas antes
  • Aprender a usar novos frameworks e ferramentas
  • Converter programas automaticamente para C ou Rust para melhorar o desempenho
  • Simplificar e reduzir grandes bases de código
  • Escrever código experimental inicial para artigos de pesquisa
  • Automatizar tarefas monótonas e scripts de uso único
  • Substituir pesquisas na web para configurar novos softwares
  • Ajudar a depurar mensagens de erro

Nicholas divide essas aplicações em duas categorias: ajudar no aprendizado e automatizar tarefas chatas. Embora essas aplicações possam não parecer muito sofisticadas, todas elas vêm de necessidades reais de trabalho e demonstram o valor dos LLMs na automação de partes tediosas do trabalho.

Como pesquisador de segurança, o trabalho de Nicholas nos últimos dez anos tem sido mostrar como os modelos de IA podem falhar em ambientes desconhecidos. Ele entende completamente as limitações desses sistemas. No entanto, ele ainda acredita que os LLMs trouxeram o maior aumento em sua produtividade desde o nascimento da internet.

Nicholas detalhou como usar LLMs para construir aplicações completas e aprender novas tecnologias. Por exemplo, ele usou o GPT-4 para escrever um pequeno jogo de "Desafio de Previsão de Capacidades do GPT-4", com a versão inicial do aplicativo quase inteiramente concluída pelo GPT-4.

Em termos de aprendizado de novas tecnologias, Nicholas deu exemplos de como usar LLMs como tutores para aprender novas ferramentas como Docker. Comparado aos métodos tradicionais de aprendizado, é muito mais eficiente ter o LLM ensinando diretamente o conhecimento necessário.

O objetivo de Nicholas ao escrever este artigo é provar que os LLMs já lhe proporcionaram muito valor e fornecer alguns exemplos para aqueles que não sabem como usar LLMs. Ele reconhece que os LLMs ainda não podem resolver as partes mais difíceis e interessantes do trabalho de um programador, mas já são capazes de lidar bem com tarefas simples, aumentando significativamente a eficiência do trabalho.

Cinco anos atrás, os LLMs podiam, no máximo, escrever texto que parecia fluente, mas não tinha utilidade prática. Hoje, eles já podem aumentar a eficiência de programação de Nicholas em uma média de 50%. Esse progresso é impressionante e sugere que os LLMs podem trazer mudanças ainda maiores no futuro.