Um favor entre executivos, um problema de uma década
Em 2014, quando o atual boom de inteligência artificial ainda engatinhava, uma troca informal entre executivos de tecnologia plantou a semente de uma disputa de privacidade que duraria dez anos. Matthew Zeiler, fundador da startup de IA Clarifai, enviou um e-mail a Maxwell Krohn, cofundador do OkCupid, com uma observação direta: o site de relacionamentos possuía uma "HUGE amount of awesome data" para treinamento de reconhecimento facial. Krohn atendeu ao pedido e entregou três milhões de fotos de perfis — uma transação que violava diretamente a própria política de privacidade do OkCupid.
Investigação e intervenção federal
Os detalhes desse arranjo só vieram à tona anos depois, a partir de uma investigação do The New York Times em 2019, que levou a Federal Trade Commission (FTC) a intervir. A Clarifai havia usado as imagens para aprimorar um serviço de reconhecimento facial capaz de identificar marcadores demográficos como idade, gênero e raça. Foi um exemplo clássico da era do "move fast and break things" na aquisição de dados, em que a intimidade pessoal de um perfil de namoro era tratada como matéria-prima industrial.
Fotos e modelos algorítmicos destruídos
No mês passado, após um acordo entre a FTC e o Match Group, controlador do OkCupid, as consequências finalmente alcançaram a Clarifai. A empresa, sediada em Delaware, certificou à FTC que apagou os três milhões de fotos. Ponto crucial: a companhia também confirmou à deputada Lori Trahan (D-MA) que destruiu os modelos algorítmicos treinados com aqueles dados específicos. Esse "algorithmic disgorgement" — a eliminação compulsória de modelos derivados de dados obtidos de forma ilícita — tem se tornado ferramenta cada vez mais comum entre reguladores, garantindo que empresas não continuem lucrando com os fantasmas matemáticos de informações adquiridas indevidamente.
Com reportagem de Engadget.
Source · Engadget



