A OpenAI, sob a liderança de Sam Altman, se posicionou não apenas como desenvolvedora de tecnologia de ponta, mas como uma das principais arquitetas da governança futura da inteligência artificial. No entanto, as propostas recentes da empresa sobre mitigação de riscos sociais e compartilhamento de benefícios reacenderam um debate fundamental: a responsabilidade de definir as "regras do jogo" pode ser confiada justamente às entidades que lucram com a disrupção?
O cerne da questão está no conflito de interesses inerente a uma corporação privada que atua ao mesmo tempo como jogadora e árbitra. Embora a OpenAI defenda a criação de marcos regulatórios para lidar com as transformações sociais provocadas pela inteligência artificial, esses modelos frequentemente refletem os interesses do Vale do Silício, e não o interesse público. Confiar que um gigante comercial vai se autorregular pressupõe que seus objetivos corporativos estarão naturalmente alinhados à estabilidade social mais ampla — uma premissa que a história raramente sustenta.
À medida que a revolução tecnológica se acelera, a pergunta sobre quem de fato se beneficia permanece sem resposta. Apostar na boa vontade dos grandes players de IA para distribuir os ganhos de produtividade ou para proteger contra riscos sistêmicos é uma estratégia precária. Uma supervisão efetiva exige um contrapeso neutro e voltado ao interesse público, capaz de garantir que as regras que governam a inteligência artificial não sejam meras extensões de um plano de negócios corporativo.
Com reportagem de Le Monde Pixels.
Source · Le Monde Pixels



