No campo da Inteligência Artificial (IA) generativa, as grandes empresas como a Microsoft e as startups financiadas, como o OpenAI, têm sido alvo de destaque – recebendo convites para a Casa Branca e diversas audiências no Congresso. Estas companhias, que têm recebido grandes destaques, têm discutido como sua tecnologia pode alterar o futuro da humanidade. Enquanto os políticos nos Estados Unidos e no exterior lidam com a regulamentação da IA, essas organizações têm desempenhado um papel significativo na definição dos tópicos da conversa. No entanto, jogadores menores de IA, tanto comerciais quanto não comerciais, estão se sentindo excluídos, enquanto enfrentam um futuro incerto.
Grande Inteligência Artificial (AI) – um termo largamente utilizado – tem sido ativamente usado para direcionar as potenciais políticas de IA. No passado mês, OpenAI, Meta, Microsoft, Google, Anthropic e Amazon assinaram um acordo com a Casa Branca, comprometendo-se a investir em IA responsável e desenvolver marcas para identificar conteúdo criado por IA. Subsequentemente, OpenAI, Microsoft, Anthropic e Google formaram o Fórum Frontier Model, uma coalizão da indústria destinada a “promover o uso seguro e responsável dos sistemas de IA de fronteira”. Este foi criado para ajudar a avançar na pesquisa de IA, desenvolver as melhores práticas e compartilhar informações com as autoridades políticas e o restante do ecossistema de IA.
Embora as grandes empresas de AI generativa sejam responsáveis por uma porção do mercado, elas não são as únicas. O OpenAI, o Google, o Anthropic e o Meta todos executam modelos de fundação de Inteligência Artificial, que podem ser focados em linguagem ou imagens. Além disso, existe um número crescente de empresas menores criando aplicativos e ferramentas. No entanto, ao contrário das grandes marcas com forte influência, elas temem que suas vozes não serão ouvidas enquanto as regras de AI estão sendo formadas, e não podem se dar ao luxo de interrupções em seus negócios.
Para as pequenas e médias empresas abaixo da cadeia de valor que estão no mercado, mas não estão realmente à mesa, essa sensação de exclusão é ainda maior: “Ok, não somos nenhum dos grandes, então só podemos esperar que alguém nos dê alguma coisa” – afirma Triveni Gandhi, líder de inteligência artificial da companhia Dataiku, para The Verge.
Gandhi indica que existem riscos potenciais para jogadores menores, como a responsabilidade. Empresas da cadeia de valor AI, como a Dataiku – que cria aplicativos de análise de dados e trabalha com clientes – não possuem controle sobre a forma como são obtidas as informações dos modelos que usam.
Se as organizações de IA do estado são responsáveis por como os chatbots usam e respondem a dados, a Dataiku pode ser multada por algo que não é possível alterar de forma simples.
O Frontier Model Forum afirmou que irá operar com grupos e organizações da sociedade civil, mas não especificou se estenderá a adesão a outras companhias de Inteligência Artificial. Quando questionado a respeito, OpenAI, um dos principais membros do fórum, preferiu não comentar se haverá abertura em relação a novos participantes no futuro.
As empresas menores precisam se envolver na discussão regulatória e comunicar como elas serão inspecionadas.
Ron Bodkin, co-fundador da ChainML, afirmou que o estabelecimento de requisitos e punições de acordo com o tamanho e escala dos jogadores de Inteligência Artificial iria longe para satisfazer muitas preocupações dos menores negócios. Gandhi da Dataiku sugeriu que qualquer consórcio ou padrões da indústria como a Organização Internacional para a Normalização, ou ISO, deveria, de fato, considerar mais participantes, especialmente pois as necessidades dos que trabalham com fundamentos de modelagem diferem dos que trabalham com os consumidores.
Os governos estão lidando com preocupações relacionadas à regulamentação da captura, quando as indústrias reguladas têm influência significativa sobre a forma como as políticas são criadas e implementadas. Enquanto os legisladores lutam para encontrar formas de promover a inovação e prevenir danos, as autoridades reguladoras estão considerando ajustar as grandes empresas de IA. No entanto, confiar exclusivamente nas entradas dessas empresas corre o risco de excluir aquelas menores da cadeia de valor e, em última análise, criar regulamentações que favoreçam os grandes concorrentes.
Permitir que as grandes empresas ditem as regras em seu próprio benefício pode deixar os usuários reais – nós – desprovidos de um veículo para influenciar a maneira como é governado.
O AI Now tocou o alarme a respeito do impacto que a Big AI tem vindo a ter com um relatório que foi publicado em abril. Esta entidade alertou para o fato de que as empresas tendem a exagerar a importância que a tecnologia da Inteligência Artificial tem e que isso influencia a forma como as pessoas pensam sobre isso. O AI Now defende que a conversa sobre o assunto deve ser liderada pelos reguladores e pelo público.
Beena Ammanath, diretora executiva do Global Deloitte AI Institute, declarou que estabelecer a confiança nas tecnologias de inteligência artificial exigirá engajamento de mais do que grandes corporações. Organizações não-governamentais, acadêmicos, agências internacionais e especialistas em políticas também devem participar. E enquanto os legisladores prosseguem debatendo as regulamentações sobre a IA, ainda existe oportunidade para iniciar a conversa.
Criar leis que verdadeiramente privilegiem o bem-estar da sociedade em vez dos benefícios corporativos é essencial para impulsionar a confiança na Inteligência Artificial, preservando padrões éticos e fomentando a adoção responsável da Inteligência Artificial, afirma Ammanath.