ouça este conteúdo
Idec alerta autoridades sobre cinco possíveis violações da LGPD. Empresa pode ser multada por infringir lei de proteção de dados de usuários.
A utilização de informações de usuários do Instagram e do Facebook pela Meta para aprimorar sua inteligência artificial tem sido questionada pelo Instituto Brasileiro de Defesa do Consumidor (Idec), que considera tal prática em desacordo com as leis vigentes no país.
Além disso, a discussão em torno da ética no uso da IA em plataformas digitais tem se intensificado, levantando questões sobre a transparência e responsabilidade das empresas no tratamento dos dados dos usuários.
Uso de informações disponíveis publicamente para treinar inteligência artificial
Parte do conteúdo utilizado pela Meta para instruir seus modelos de IA envolve dados acessíveis ao público em redes sociais da empresa. Isso inclui fotos e textos compartilhados por usuários, excluindo mensagens privadas. Por que isso é relevante? Porque o material postado por você e muitos outros nas plataformas do Instagram e Facebook está sendo empregado no treinamento de inteligência artificial, sem a empresa oferecer contrapartidas claras ou detalhes sobre os possíveis usos da tecnologia.
A coleta dessas informações foi anunciada pela Meta recentemente e está ativada por padrão. Para proteger suas imagens e vídeos, é necessário seguir um procedimento nas configurações das redes sociais (saiba como fazer). O Idec argumenta que a Meta falhou ao não prevenir os usuários com antecedência, não sendo totalmente transparente sobre a prática e não facilitando a oposição à coleta de dados. Em resposta, a entidade enviou um ofício para a Senacon, ANPD e Cade, alertando sobre a situação.
Caso a violação seja confirmada, a Meta pode enfrentar multas de até R$ 50 milhões, conforme previsto na LGPD. A empresa defende que o uso dos dados para treinar inteligência artificial é de interesse legítimo, tanto seu quanto dos usuários.
A Meta afirmou ao g1 em 23 de junho: ‘Estamos dedicados a desenvolver a inteligência artificial na Meta – nossa coleção de recursos e experiências geradoras de IA, juntamente com os modelos que as alimentam – de maneira segura, responsável e em conformidade com as regulamentações de privacidade no Brasil.’
A companhia não se manifestou novamente até o momento da publicação desta reportagem. Saiba mais sobre o caso a seguir.
Origem da polêmica
O caso chamou atenção em 4 de junho, quando a Meta informou à União Europeia e ao Reino Unido que sua política de privacidade poderia incluir o uso de dados de usuários para treinar sua IA. O treinamento de modelos de inteligência artificial requer grandes volumes de dados para capacitar a análise de informações e até mesmo a geração de conteúdo autônomo. Após críticas, a empresa recuou na Europa e adiou a mudança para cumprir a determinação do regulador local, a DPC.
No entanto, a possibilidade ainda está em vigor na política da empresa para o Brasil. O documento afirma: ‘Utilizamos informações disponíveis online e licenciadas, bem como dados compartilhados em nossos produtos e serviços.’
Os brasileiros que recebem R$ 500 por mês para treinar inteligências artificiais podem estar em situação irregular.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo