Controvérsia com LinkedIn:eles descobrem que sua IA é treinada com dados privados do usuário

-

Embora o escritório mencione esse uso em sua política de privacidade, os usuários não foram informados diretamente nem tiveram a opção de não participar do processo.

Após a polêmica sobre o uso de dados pessoais no desenvolvimento da inteligência artificial lançada pela Meta em julho deste ano, chamada Meta AI e que está disponível no WhatsApp, as críticas agora recaem sobre um novo peso pesado das redes sociais.

Este é o LinkedIn, a principal plataforma de empregos, que começou a treinar modelos de IA, mas com dados de seus usuários sem seu consentimento explícito.

Semelhante ao que o Facebook, também pertencente à Metade Mark Zuckerberg, fez, a tecnologia é usada pelo portal de empregos para sugerir publicações que se alinhem com os interesses de cada usuário.

A plataforma de propriedade da Microsoft implementou essa medida sem alertar diretamente seus usuários, algo que atraiu críticas pela falta de transparência e controle sobre o uso de informações pessoais e a subsequente privacidade em torno dos usuários que as utilizam.

A nova política, que entrou em vigor em 18 de setembro de 2024, permite que o LinkedIn use os dados fornecidos por seus usuários para melhorar e desenvolver seus sistemas de IA.

“Quando essas notícias são conhecidas, uma das principais preocupações éticas é a sensação de que os usuários perdem o controle sobre suas próprias informações. Além disso, surge a questão de saber se as empresas usam essas informações para seus próprios projetos sem que o usuário esteja ciente disso”, disse Jorge Lukowski, Diretor Global de Marketing e Comunicação da NEORIS, ao iProUP.

Foi revelado que

O LinkedIn coletou informações pessoais sem o consentimento dos usuários para treinar modelos de inteligência artificial

Julián Colombo, CEO da N5, destaca que a transparência é “crucial”, pois a falta de clareza sobre como os dados são coletados e usados gera desconfiança, por isso recomenda que as plataformas sejam abertas em suas práticas de coleta de dados.

Outro ponto importante que ele menciona é o preconceito e a discriminação: “É preciso garantir que os dados representem uma diversidade de perspectivas. Além disso, a segurança dos dados também não pode ser negligenciada; o uso de grandes volumes de informações aumenta os riscos de vazamentos e abusos, o que requer medidas de segurança robustas para proteger os usuários. É crucial que as plataformas assumam a responsabilidade pelo uso de dados e, assim, promovam uma cultura de consentimento, transparência e responsabilidade.”

Embora a empresa mencione esse uso em sua política de privacidade, os usuários não foram informados diretamente ou tiveram a opção de optar por não participar desse processo.

Como resultado, o Open Rights Group (ORG), sem fins lucrativos, pediu ao Information Commissioner’s Office (ICO), órgão independente de proteção de dados do Reino Unido, que inicie uma investigação sobre o LinkedIn e outras redes que usam automaticamente os dados do usuário para treinamento.

Desde LinkedIn detallan en su sección de preguntas y respuestas que “al igual que con la mayoría de las funciones, cuando interactúas con nuestra plataforma, recopilamos y usamos (o procesamos) datos sobre tu uso de la plataforma, incluidos datos personales”.

Esto incluiría el “uso de la IA generativa (modelos de IA utilizados para crear contenido) u otras funciones de IA, tus publicaciones y artículos, la frecuencia con la que usas LinkedIn, tu preferencia de idioma y cualquier comentario que hayas proporcionado a nuestros equipos. Usamos estos datos, de acuerdo con nuestra política de privacidad, para mejorar o desarrollar los servicios de LinkedIn“, precisa el portal.

sdv

Diversos organismos internacionales ya propusieron normativas para regular el uso de la IA entre empresas que manejas datos

Los planes de la marca regirán oficialmente a partir de noviembre de este año, afectarán a los usuarios de los Estados UnidosCanadá y cualquier país donde las leyes no hayan legislado ante el uso de esta información. En el caso de los países dentro de la Unión Europea (UE), la situación será diferente.

LinkedIn se mete con la privacidad de los usuarios: las implicancias éticas en el uso de la IA

Esta situación despertó preocupaciones entre los expertos en privacidad, quienes destacan el riesgo de que los datos sensibles puedan ser utilizados de manera inadecuada para entrenar a modelos generativos sin las debidas medidas de seguridad ni consentimiento. 

“Este tipo de situaciones nos lleva a reconsiderar cómo gestionamos la privacidad de los datos de los usuarios. Aunque las soluciones basadas en IA requieren grandes volúmenes de información para ser efectivas, tecnologías como GPT nos permiten crear perfiles “ficticios” que pueden simular patrones reales sin recurrir a datos privados”, reflexiona Lukowski.

“Como usuarios, debemos ser conscientes de la información que compartimos, ya que incluso datos que no parecen sensibles pueden ser usados para definirnos. No se trata de cerrar nuestras redes sociales, sino de ser más reflexivos sobre qué publicamos y cómo podría utilizarse”, añade.

Nesse sentido, um relatório apresentado pela ONU destacou a necessidade “urgente” de regulamentar a IA, que destacou suas preocupações com seu impacto na sociedade e enfatizou a importância de marcos legislativos que garantam a privacidade do usuário. “A legislação desempenha um papel crucial na regulamentação das plataformas”, diz Colombo.

O LinkedIn também detalhou que, em algumas regiões, como a União Europeia (UE), o Espaço Econômico Europeu (EEE) e a Suíça, nenhum dado residente foi usado para treinar seus modelos de IA, devido aos regulamentos de privacidade da Lei Geral de Proteção de Dados (GDPR) e outros que regem essas jurisdições.

A plataforma de empregos se limitou a divulgar suas políticas com eficiência, mas muitos usuários estão exigindo maior clareza sobre como seus dados serão tratados no futuro.

“A legislação desempenha um papel crucial em tudo isso: fornece uma estrutura regulatória para que as empresas saibam como fazer adequadamente em um campo relativamente novo e trabalhem com os governos para criar leis que beneficiem ambas as partes. Um exemplo poderia ser permitir que os usuários forneçam voluntariamente seus dados quando forem relevantes para um projeto de IA ou dar a eles o direito de saber para que serão usados”, diz o chefe da NEORIS.

compartilhar artigo

Conteúdo recente

Categorias populares