Regulação da inteligência artificial avança nos EUA e na Europa: buscando equilíbrio entre inovação e controle

A cadeia de valor da indústria de inteligência artificial tem potencial para reduzir as barreiras à concorrência de mercado em todos os seus segmentos.

O Departamento de Justiça dos EUA e a Comissão Federal de Comércio (FTC) chegaram a um acordo para investigar separadamente se Microsoft, OpenAI e Nvidia estão envolvidas em práticas anticompetitivas.

Ao mesmo tempo, com a introdução da Lei de Inteligência Artificial da UE, a Comissão Europeia tem demonstrado um interesse crescente em investigar a IA. Em março e maio de 2024, a Comissão Europeia enviou pedidos formais de informações para Google, Facebook e TikTok, e Microsoft, respectivamente, solicitando detalhes sobre os riscos e medidas de mitigação relacionados à IA generativa. Em 16 de julho de 2024, a Autoridade de Concorrência e Mercados (CMA) do Reino Unido anunciou o início de uma investigação sobre a "contratação da equipe principal da Inflection AI pela Microsoft" para determinar se essa contratação equivale a uma "aquisição".

Essa urgência nas verificações de concorrência deve-se, por um lado, ao fato de que as autoridades reguladoras de concorrência não querem ser pegas desprevenidas novamente pelas grandes empresas de tecnologia; por outro lado, as condições intrínsecas do desenvolvimento de grandes modelos de IA parecem ter características de "concentração" e "restrição". Portanto, tanto a UE quanto os EUA parecem mais inclinados a realizar "intervenções preventivas" antes que as empresas de tecnologia consigam estabelecer uma posição dominante no mercado de IA.

Atributos intrinsecamente "anticompetitivos" do desenvolvimento da IA?

1. Barreiras de infraestrutura em nuvem e capacidade computacional

Alguns especialistas acreditam que um mercado oligopolista de IA é quase inevitável.

Para startups de IA, o treinamento de modelos é um custo fixo caro e a principal barreira para entrar no mercado de IA. É difícil sustentar esses custos apenas com o financiamento de investidores.

Apenas as maiores empresas de tecnologia (principalmente Google, Amazon, Microsoft e Meta, além de Apple e Nvidia, coletivamente chamadas de GAMMAN) possuem a infraestrutura em nuvem e a capacidade computacional necessárias para atender às demandas de treinamento dos maiores modelos de IA. O controle da GAMMAN sobre ativos-chave limita as startups menores a papéis subordinados.

Isso explica por que as startups de IA geralmente estão dispostas a buscar acordos de cooperação com grandes empresas de tecnologia. O exemplo mais típico é a cooperação entre OpenAI e Microsoft, trocando o acesso à infraestrutura computacional pelo direito da GAMMAN de usar seus modelos mais recentes. Ou então, as startups de IA podem se afastar da fronteira tecnológica, focando em modelos de IA menores que se saem bem em tarefas específicas, "construindo as bases" para modelos maiores, criando aplicativos com dados proprietários.

2. Barreiras para acessar dados protegidos por direitos autorais

Muitos conjuntos de dados de treinamento de IA de alta qualidade para texto, áudio e imagens são protegidos por direitos autorais. Em princípio, os autores podem cobrar taxas de licenciamento pelo uso de suas obras. Isso levará a uma redução no fornecimento de dados de treinamento devido a custos adicionais. Isso também aumentará o custo do treinamento de modelos e reduzirá a concorrência entre os desenvolvedores de modelos.

A Lei de IA da UE exige que os desenvolvedores de modelos cumpram a Lei de Direitos Autorais da UE, conforme estabelecido na Diretiva de Direitos Autorais, especialmente o Artigo 4, que concede uma exceção de direitos autorais para pesquisa comercial, mas permite que os detentores de direitos autorais optem por não participar dessa exceção. Nos EUA, existe alguma incerteza legal, com vários casos pendentes. Se os tribunais decidirem que a exceção de uso justo não se aplica, os investidores em IA enfrentarão o risco de indenizações estatutárias punitivas. Para evitar isso, as maiores empresas de IA já assinaram acordos de licenciamento de dados com grandes empresas de mídia. Por exemplo, a OpenAI assinou acordos com o New York Times, o Grupo de Mídia Bertelsmann e a plataforma de notícias Reddit.

Se os países aplicarem rigorosamente as leis de direitos autorais, aumentará a dificuldade para os modelos de IA obterem dados de treinamento, e desenvolvedores de IA menores e startups podem não ter os recursos financeiros para pagar licenças de direitos autorais, podendo ser completamente expulsos do mercado.

3. Facilidade de acesso aos usuários

Os desenvolvedores de modelos de IA precisam de canais comerciais para gerar receita para pagar os custos de treinamento e execução dos modelos.

Algumas startups construíram seus próprios modelos de negócios do zero e tiveram bastante sucesso. Por exemplo, a OpenAI criou uma loja de aplicativos GPT paga e cobra uma taxa de assinatura dos usuários da versão profissional do ChatGPT. O ChatGPT atingiu mais de 100 milhões de usuários em um ano após seu lançamento.

No entanto, para startups de IA com efeitos de rede fracos ou inexistentes, é muito difícil construir um modelo de negócios do zero. Uma maneira mais simples de gerar receita é colaborar com a GAMMAN, incorporando modelos de IA em seus modelos de negócios maduros. Por exemplo, o Google está incorporando seus próprios modelos de IA e de terceiros em seu mecanismo de busca e outros serviços, cobrando preços altos pelo acesso a alguns serviços impulsionados por IA.

Portanto, startups que ainda não estabeleceram modelos de negócios também estão dispostas a colaborar com a GAMMAN, incorporando modelos de IA no extremo downstream da cadeia de valor - serviços existentes da GAMMAN voltados para o usuário; em troca, as startups colaboram no sentido inverso no extremo upstream da cadeia de valor, com a GAMMAN concedendo às startups acesso à infraestrutura computacional e possivelmente dados de treinamento.

Os acordos de "coopetição" entre GAMMAN e startups de IA são considerados "aquisições"?

Pelas razões acima, startups de IA que desejam manter uma posição de liderança tecnológica precisam assinar acordos de coopetição com a GAMMAN para superar barreiras de custos de treinamento e aquisição de clientes. A GAMMAN pode se integrar verticalmente ao longo de toda a cadeia de valor da IA, enquanto as startups cobrem principalmente as partes de insumos e intermediárias da cadeia de valor.

As autoridades de concorrência veem essas transações e acordos com ceticismo, temendo que os acordos de coopetição possam se tornar um cavalo de Troia para a GAMMAN exercer influência e reduzir a concorrência das startups de IA. Uma questão jurídica importante é se ações da GAMMAN, desde investimentos estratégicos até a contratação de fundadores e talentos técnicos de startups, constituem uma nova forma de aquisição - "quase-aquisição" - que apenas contorna a supervisão antitruste?

No entanto, várias investigações das autoridades de concorrência até agora não encontraram evidências conclusivas.

Embora a Comissão Europeia tenha concluído em abril de 2024 que os arranjos de investimento da Microsoft na OpenAI não constituem uma aquisição, ela continua investigando se deve abrir uma investigação antitruste formal sobre o arranjo, alegando que ele pode ter um efeito distorcivo no mercado interno da UE. A Alemanha adotou uma abordagem semelhante, determinando em novembro de 2023 que o arranjo não está sujeito ao controle de fusões alemão, mas reservando a possibilidade de revisão se a Microsoft aumentar sua influência sobre a OpenAI no futuro.

As autoridades antitruste dos EUA também se juntaram às investigações.

Pontos de entrada para investigações antitruste em IA generativa

Se o conceito de "quase-aquisição" for difícil de estabelecer legalmente, é provável que os reguladores busquem avanços no controle de um ou mais componentes-chave dos quais a IA generativa depende.

1. Dados

Diferentemente do hardware, os dados de treinamento são não-rivais e podem ser usados por muitas pessoas simultaneamente. No entanto, muitas fontes de dados de treinamento de alta qualidade estão sujeitas a direitos autorais e taxas de licenciamento.

Isso é especialmente verdadeiro em áreas especializadas ou onde a regulamentação de dados é mais rigorosa (como saúde ou finanças). Pré-treinar ou ajustar um modelo com profundo conhecimento especializado nessas áreas pode exigir acesso a grandes quantidades de dados que não estão amplamente disponíveis e são difíceis de coletar para novos participantes do mercado.

Claro, simplesmente possuir grandes quantidades de dados não é ilegal. No entanto, as autoridades antitruste podem prestar atenção especial ao controle de dados pelas empresas para determinar se isso pode reduzir o fornecimento de dados, criar barreiras de acesso e impedir o desenvolvimento pleno de uma concorrência justa.

2. Talentos

Outro insumo importante para a IA generativa é a expertise da força de trabalho. O desenvolvimento de modelos generativos requer um grande número de engenheiros e pesquisadores com habilidades específicas e relativamente escassas, e um profundo entendimento de aprendizado de máquina, processamento de linguagem natural e visão computacional. O talento que as empresas podem atrair e reter pode desempenhar um papel crucial não apenas no caminho de desenvolvimento da IA generativa, mas também na velocidade de desenvolvimento.

Devido à escassez de talentos, empresas poderosas podem ter incentivos para bloquear funcionários, sufocando assim a concorrência de concorrentes reais ou potenciais. Para garantir a concorrência e a inovação no mercado, é essencial permitir que talentos com ideias inovadoras circulem livremente, sem serem impedidos por cláusulas de não concorrência.

A investigação anunciada em julho pela CMA do Reino Unido sobre a contratação da equipe principal da Inflection AI (concorrente da OpenAI) pela Microsoft se enquadra nessa categoria. Além disso, a proibição abrangente anunciada pela FTC dos EUA em 23 de abril de 2024 de novos acordos de não concorrência para todos os funcionários (incluindo executivos seniores) também visa promover a mobilidade de talentos de TI. No entanto, sua legalidade foi rapidamente contestada por um juiz, e o futuro permanece incerto.

3. Recursos computacionais

Sistemas de IA generativa geralmente requerem grandes quantidades de recursos computacionais. A computação geralmente requer hardware dedicado, como computadores com chips especializados como unidades de processamento gráfico (GPUs), ou acesso a recursos computacionais por meio de serviços de computação em nuvem. No entanto, os custos de operação e manutenção de chips e os preços dos serviços em nuvem são caros, e atualmente apenas algumas empresas os oferecem, aumentando o risco de comportamento anticompetitivo.

Hoje, alguns mercados de chips especializados já estão altamente concentrados, e a demanda por chips de servidor pode exceder a oferta. Por exemplo, o aumento da demanda por chips de servidor que podem ser usados para treinar IA levou à escassez, levando os principais provedores de serviços em nuvem como AWS, Microsoft, Google e Oracle a "limitar a oferta de produtos aos clientes". E as empresas em mercados altamente concentrados são mais propensas a adotar práticas competitivas injustas ou outras violações antitruste.

Em 2022, após mais de dois meses de processo da Comissão Federal de Comércio dos EUA contra a Nvidia, a Nvidia abandonou sua aquisição da Arm. A FTC argumentou que o acordo permitiria à Nvidia suprimir tecnologias concorrentes inovadoras e injustamente prejudicar a posição dos concorrentes do negócio de licenciamento da Arm.