No âmbito da Inteligência Artificial generativa, são as grandes empresas que têm as promessas mais altas. As grandes corporações de tecnologia, como a Microsoft e startups financiadas, como o OpenAI, foram convidadas para a Casa Branca e provavelmente têm inúmeras audiências no Congresso. Estas companhias têm grande destaque na discussão sobre como a sua tecnologia pode mudar a humanidade. Enquanto políticos nos Estados Unidos e no exterior lutam para regular a Inteligência Artificial, estas empresas têm um papel determinante na definição dos termos da conversação. Por outro lado, os jogadores menores de IA, sejam comerciais ou não, estão a sentir-se excluídos, tendo um futuro mais incerto.
Big AI – um termo que é longo para adoção – tem sido ativamente orientando as políticas potenciais de IA. No mês passado, o OpenAI, Meta, Microsoft, Google, Anthropic e Amazon assinaram um acordo com a Casa Branca prometendo investir em IA responsável e desenvolver recursos de marca d’água para flagrar conteúdo gerado por IA. Logo depois, o OpenAI, Microsoft, Anthropic e Google formaram o Frontier Model Forum, uma coalizão da indústria destinada a “promover o uso seguro e responsável dos sistemas de IA de fronteira”. Foi criado para avançar a pesquisa de IA, encontrar as melhores práticas e compartilhar informações com os decisores políticos e o resto do ecossistema de IA.
Embora as grandes empresas de Inteligência Artificial (AI) representem uma proporção significativa do mercado de AI generativa, a OpenAI, o Google, o Anthropic e o Meta estão a desenvolver modelos de base de IA que se baseiam na linguagem ou se concentram nas imagens. Contudo, existe também um setor crescente de empresas muito menores construindo aplicações e outras ferramentas. Estas empresas têm de sujeitar-se ao examinamento adequado, porém, como as diretrizes sobre AI estão a ser criadas, elas temem não ter influência nos resultados. Diferentemente das grandes empresas de AI, que têm grandes recursos, elas não conseguem permitir interrupções nos seus negócios.
Para as pequenas e médias empresas abaixo da cadeia de valor, que estão no espaço, mas não são convidadas à mesa, isso cria um sentimento de exclusão: ‘Certo, não somos nenhum dos grandes nomes, então só temos que nos sentar e esperar que alguém deixe algo no alto’ – disse Triveni Gandhi, responsável pela liderança AI na empresa Dataiku, ao The Verge.
Gandhi aponta que o perigo potencial para as partes mais fracas da cadeia de valor de IA é a responsabilidade. A Dataiku, por exemplo, que desenvolve aplicativos de análise de dados e trabalha com seus clientes, não tem qualquer poder de controlar como esses modelos usados obtêm informações.
Se as organizações de IA do Estado são responsáveis pelo modo como os chatbots acessam e respondem às perguntas, a Dataiku pode ser castigada por algo que não pode ser alterado facilmente.
O Frontier Model Forum declarou que trabalhará com associações e autoridades da sociedade civil, mas não comentou se a participação será ampliada para incluir outras companhias de Inteligência Artificial. O OpenAI, que é um dos principais do fórum, recusou-se a especificar se o grupo se expandirá no futuro.
Embaixo, essas companhias menores têm que ser incluídas na discussão regulatória, e elas anseiam especificar de que forma serão examinadas.
Ron Bodkin, co-fundador da ChainML, comentou que estabelecer requisitos e aplicar sanções de acordo com o tamanho e alcance dos jogadores de Inteligência Artificial pode ajudar a atender às preocupações das empresas menores. Gandhi da Dataiku sugeriu que qualquer organização de coalizão ou padrão de indústria, como a Organização Internacional para a Normalização, ou ISO, deveria fornecer um espaço para mais participantes, em especial porque as necessidades dos que trabalham com modelos de fundação se diferem das dos que trabalham com os clientes.
As inquietações acerca da captura regulatória – quando indústrias reguladas têm influência decisiva na forma como as leis são elaboradas e implementadas – foram abordadas durante os debates no Congresso como legisladores buscavam encontrar um equilíbrio entre a inovação e a prevenção de danos. É razoável que as autoridades governamentais tomem medidas para controlar grandes empresas de Inteligência Artificial enquanto procuram montar o quadro regulatório. No entanto, se basear apenas nas sugestões dessas empresas pode levar a um distanciamento das companhias situadas mais abaixo na cadeia de valor – e pode levar à criação de regras que acabam por proteger as grandes empresas do setor.
Permitir que as grandes empresas influenciem as leis de forma benéfica para elas próprias poderia deixar os cidadãos sem meios de se manifestar sobre como o governo lida com situações.
A Big AI soou o alarme em abril com o lançamento de um relatório. AI Now advertiu que as organizações estão manipulando a conversa em torno da Inteligência Artificial, exagerando a importância da tecnologia para o futuro e alterando a maneira como o público pensa sobre isso. Assim, AI Now acredita que a discussão deve ser guiada pelos reguladores e pelos cidadãos.
Beena Ammanath, executiva da Direção do Instituto Global Deloitte AI, afirmou que para aumentar a fé nas tecnologias de Inteligência Artificial (IA) será necessário contemplar mais do que apenas grandes empresas. As organizações não-governamentais, os acadêmicos, as agências internacionais e os especialistas em políticas também devem ser ouvidos. Ainda que os legisladores discutam a regulamentação da IA, há tempo para abrir o diálogo.
É preciso criar normas que, de fato, se pautem pelo bem comum antes que pelos interesses empresariais, a fim de assegurar a confiança na inteligência artificial, preservar a ética e estimular o uso responsável da inteligência artificial, afirma Ammanath.