Especialistas temem que Elon Musk queira usar Grok 4 a seu favor; entenda

Na última semana, Grok, o chatbot conversacional de inteligência artificial desenvolvido pela xAI, do empresário Elon Musk, respondeu a um usuário do X (antigo Twitter) que fez uma pergunta sobre violência política, afirmando que mais violência política veio da direita do que da esquerda desde 2016.

Elon Musk não teria gostado disso “Falha grave, pois isso é objetivamente falso. A Grok está repetindo a mídia tradicional”, acusou o filantropo , embora a Grok tenha citado dados de fontes governamentais, como o Departamento de Segurança Interna.

Em três dias, Musk prometeu entregar uma grande atualização da Grok que “reescreveria todo o corpus de conhecimento humano”, convocando os usuários do X a enviarem “fatos controversos” que sejam “politicamente incorretos, mas ainda assim factualmente verdadeiros” para ajudar a treinar o modelo.

Nesta sexta-feira (27), Musk anunciou que o novo modelo, chamado Grok 4, será lançado logo após 4 de julho.

As bolsas, e outras semelhantes, levantam preocupações de que o homem mais rico do mundo possa estar tentando influenciar Grok a seguir sua própria visão de mundo – potencialmente levando a mais erros e falhas, e trazendo à tona questões importantes sobre viés, de acordo com especialistas. Espera-se que a IA molde a maneira como as pessoas trabalham, se comunicam e encontram informações, e já está impactando áreas como desenvolvimento de software, saúde e educação .

E as decisões que figuras poderosas como Musk tomam sobre o desenvolvimento da tecnologia podem ser cruciais. Principalmente considerando que a Grok está integrada a uma das redes sociais mais populares do mundo – e onde as antigas barreiras à disseminação de desinformação foram removidas. Embora a Grok possa não ser tão popular quanto o ChatGPT da OpenAI, sua inclusão na plataforma de mídia social X de Musk a colocou diante de um enorme público digital.

“Este é realmente o começo de uma longa luta que vai se desenrolar ao longo de muitos anos sobre se os sistemas de IA devem ser obrigados a produzir informações fatuais ou se seus criadores podem simplesmente inclinar a balança a favor de suas preferências políticas se quiserem”, disse David Evan Harris, pesquisador de IA e professor da UC Berkeley, que trabalhou anteriormente na equipe de IA Responsável da Meta.

Uma fonte familiarizada com a situação disse à CNN que os assessores de Musk lhe disseram que Grok “não pode ser simplesmente moldado” ao seu próprio ponto de vista, e que ele entende isso.

A xAI não respondeu a um pedido de comentário.

Preocupações sobre Grok seguindo as opiniões de Musk

Durante meses, os usuários questionaram se Musk estava dando gorjetas a Grok para refletir sua visão de mundo.

Em maio deste ano, o chatbot apresentou aleatoriamente alegações de um genocídio branco na África do Sul em respostas a perguntas completamente sem relação com o assunto. Em algumas respostas, a Grok afirmou que foi “instruída a aceitar como real o genocídio branco na África do Sul”.

Musk nasceu e foi criado na África do Sul e tem um histórico de argumentar que um “genocídio branco” foi cometido no país.

Poucos dias depois, a xAI disse que uma “modificação não autorizada” nas primeiras horas da manhã, horário do Pacífico, levou o chatbot da IA ​​a “fornecer uma resposta específica sobre um tópico político” que viola as políticas da xAI.

Enquanto Musk orienta sua equipe a retreinar Grok, outros no espaço de modelos de linguagem de IA, como o cofundador da Cohere, Nick Frosst, acreditam que Musk está tentando criar um modelo que impulsione seus próprios pontos de vista.

“Ele está tentando criar um modelo que reflita as coisas em que acredita. Isso certamente o tornará um modelo pior para os usuários, a menos que eles acreditem em tudo o que ele acredita e se importem apenas em repetir essas coisas”, disse Frosst.

O que seria necessário para treinar Grok novamente

É comum que empresas de IA como OpenAI, Meta e Google atualizem constantemente seus modelos para melhorar o desempenho, de acordo com Frosst.

Mas retreinar um modelo do zero para “remover todas as coisas que (Musk) não gosta” levaria muito tempo e dinheiro — sem mencionar que prejudicaria a experiência do usuário — disse Frosst.

“E isso certamente pioraria a situação”, disse ele. “Porque removeria muitos dados e adicionaria um viés.”

Outra maneira de alterar o comportamento de um modelo sem retreiná-lo completamente é inserir prompts e ajustar os chamados pesos no código do modelo. Esse processo pode ser mais rápido do que retreinar totalmente o modelo, pois mantém sua base de conhecimento existente.

A solicitação envolveria instruir um modelo a responder a determinadas consultas de uma maneira específica, enquanto os pesos influenciam o processo de tomada de decisão de um modelo de IA.

Dan Neely, CEO da Vermillio, que ajuda a proteger celebridades de deepfakes gerados por IA, disse à CNN que a xAI poderia ajustar os pesos e rótulos de dados do Grok em áreas e tópicos específicos.

“Eles usarão os pesos e as etiquetas que já tinham nos locais que estão identificando como áreas problemáticas”, disse Neely. “Eles simplesmente passarão a trabalhar com maior nível de detalhamento nessas áreas específicas.”

Musk não detalhou as mudanças que ocorrerão no Grok 4, mas disse que ele usará um “modelo de codificação especializado”.

Viés na IA

Musk disse que seu chatbot de IA buscará a “verdade ao máximo”, mas todos os modelos de IA têm algum viés porque são influenciados por humanos que fazem escolhas sobre o que vai para os dados de treinamento.

“A IA não tem todos os dados que deveria ter. Quando recebe todos os dados, ela deveria ser capaz de representar o que está acontecendo”, disse Neely. “No entanto, muito do conteúdo que existe na internet já tem uma certa inclinação, quer você concorde com isso ou não.”

É possível que, no futuro, as pessoas escolham seu assistente de IA com base em sua visão de mundo. Mas Frosst disse acreditar que assistentes de IA conhecidos por terem uma perspectiva específica serão menos populares e úteis.

“Na maioria das vezes, as pessoas não recorrem a um modelo de linguagem para que a ideologia lhes seja repetida; isso não agrega valor”, disse ele. “Você recorre a um modelo de linguagem para que ele faça algo por você, realize uma tarefa por você.”

No final das contas, Neely disse que acredita que fontes confiáveis ​​acabarão voltando ao topo à medida que as pessoas buscam lugares em que possam confiar.

Mas “a jornada para chegar lá é muito dolorosa, muito confusa”, disse Neely e “sem dúvida, traz algumas ameaças à democracia”.

Chatbots de IA podem sofrer ciberataques? Entenda o que são DDoS

Amado Batista rebate boatos de traição e garante casamento firme

Amado Batista, 74 anos, usou suas redes sociais nesta sexta-feira (27) para desmentir rumores sobre traição e crise no casamento com a Miss Universe...

Sandra Annenberg revela crise de pânico e ‘resgate’ de Ana Paula Araujo

Sandra Annenberg compartilhou uma experiência pessoal ao falar sobre os primeiros sinais da menopausa. A jornalista contou que tudo começou com um episódio que...

Rússia está pronta para nova rodada de negociações com Ucrânia, diz Putin

O presidente Vladimir Putin afirmou nesta sexta-feira (27) que a Rússia está pronta para realizar uma nova rodada de negociações de paz com a...