Caso Grok inaugura aplicação de decisão do STF e amplia pressão sobre big techs

MPF, Senacon e ANPD querem medidas à ferramenta de IA do X para barrar geração de conteúdo sexual com pessoas reais
Logo do X (Ex-Twitter)
Foto: X/Divulgação

Órgãos federais determinaram que o Grok, do X, adote medidas para impedir a geração de conteúdo sexual com pessoas reais, especialmente crianças e adolescentes. O caso é o primeiro de grande repercussão a aplicar o acórdão do Supremo Tribunal Federal sobre o artigo 19 do Marco Civil, que amplia a responsabilidade das plataformas mesmo sem ordem judicial, em caso de violação sistemática do dever de cuidado. Embora a decisão do STF ainda não seja definitiva, o episódio sinaliza impactos regulatórios imediatos para big techs e acelera o debate sobre a regulação da IA no Brasil.

A ferramenta de inteligência artificial Grok, desenvolvida pela plataforma X, passou a ser alvo de medidas conjuntas do Ministério Público Federal (MPF), da Secretaria Nacional do Consumidor (Senacon) e da Autoridade Nacional de Proteção de Dados (ANPD). Os órgãos exigem providências imediatas para impedir a geração de imagens, vídeos ou áudios que sexualizem crianças e adolescentes ou pessoas reais maiores de idade sem consentimento.

O caso ganhou relevância nacional por ser o primeiro de grande repercussão a utilizar como fundamento o recente acórdão do Supremo Tribunal Federal (STF) sobre o artigo 19 do Marco Civil da Internet, que ampliou a responsabilidade das plataformas digitais por conteúdos gerados ou disseminados por terceiros.

Dever de cuidado ampliado

Na decisão publicada em novembro, o STF fixou entendimento de que plataformas podem ser responsabilizadas mesmo sem ordem judicial ou notificação prévia, quando houver violação sistemática do dever de cuidado, especialmente em situações que envolvam direitos fundamentais, como a proteção de crianças e adolescentes.

É justamente esse ponto que sustenta a atuação dos órgãos contra o Grok. Segundo o MPF, a capacidade da ferramenta de gerar conteúdos sexualizados com pessoas reais revela risco elevado e recorrente, o que impõe uma atuação preventiva das plataformas, independentemente de provocação judicial.

Apesar disso, o acórdão do STF ainda não é definitivo. Embargos de declaração com potencial para alterar aspectos centrais da decisão seguem pendentes de julgamento, sem data definida. Mesmo assim, o entendimento já vem sendo usado como parâmetro por autoridades administrativas.

Prazo e exigências

A empresa controlada por Elon Musk tem até 27 de janeiro para comprovar que adotou medidas iniciais para bloquear a geração de conteúdos ilícitos pelo Grok. Além disso, deverá apresentar um cronograma para a implementação de outras exigências, entre elas:

• suspensão de contas envolvidas na produção ou disseminação desse tipo de conteúdo;
• criação de mecanismos de denúncia acessíveis aos usuários;
• elaboração de relatórios de impacto, indicando riscos e medidas de mitigação;
• ajustes estruturais para impedir reincidência.

O descumprimento pode levar à aplicação de sanções administrativas e reforçar a responsabilização da empresa no âmbito judicial.

Impacto regulatório e debate no Congresso

Segundo o Jota, o episódio reforçou, no Congresso Nacional, a percepção de urgência na votação de projetos que tratam da regulação da inteligência artificial no Brasil. Para o presidente da comissão especial que discute o tema, o caso Grok evidencia que a ausência de regras claras amplia conflitos e transfere ao Judiciário e aos órgãos de controle decisões que poderiam estar previamente delimitadas em lei.

Especialistas avaliam que o caso funciona como um laboratório prático do novo entendimento do STF: ainda que provisório, ele sinaliza uma mudança estrutural na forma como o Estado brasileiro pretende lidar com riscos sistêmicos gerados por plataformas digitais e sistemas de IA.

Precedente para outras big techs

A atuação contra o Grok é vista como um prenúncio do que pode ocorrer com outras big techs. Se mantido o entendimento do STF, plataformas poderão ser cobradas por falhas estruturais de moderação, sobretudo quando envolvem conteúdos sensíveis e violações graves de direitos.

Enquanto os embargos não são julgados, o caso avança como um marco inicial: pela primeira vez, uma ferramenta de IA generativa de grande escala é formalmente enquadrada no Brasil sob a lógica do dever de cuidado ampliado, com impactos diretos sobre o futuro da regulação digital no país.

Veja também