A agência de proteção de dados da Itália anunciou, na sexta-feira (31), que abriu uma investigação sobre o chatbot ChatGPT da OpenAI, uma ferramenta de inteligência artificial financiada pela Microsoft, por suspeita de violação das regras de coleta de dados do aplicativo e falta de verificação de idade de seus usuários.
De acordo com a agência, o ChatGPT deve ser restrito para pessoas com idade igual ou superior a 13 anos, porém não há evidências de que a ferramenta esteja verificando a idade de seus usuários. Em nota, a agência afirmou ainda que baniu o uso do chatbot por usuários italianos.
O ChatGPT foi lançado no ano passado e se tornou um fenômeno, com rivais lançando produtos similares e empresas integrando a tecnologia em seus aplicativos e produtos. Em janeiro deste ano, apenas dois meses após o lançamento, o ChatGPT atingiu a marca de 100 milhões de usuários ativos mensais, se tornando o aplicativo de consumo de crescimento mais rápido da história, de acordo com um estudo do UBS.
No entanto, o sucesso do ChatGPT também despertou preocupações em relação à coleta de dados dos usuários e sua utilização indevida. A agência italiana alegou que a coleta e armazenamento massivo de dados pessoais para “treinar” os algoritmos do ChatGPT não tem base legal.
Além disso, nesta semana a Europol, agência de aplicação da lei da União Europeia, alertou sobre o potencial uso indevido do chatbot em tentativas de phishing, desinformação e crimes cibernéticos, aumentando ainda mais as preocupações em relação à segurança dos usuários.
A OpenAI, responsável pelo ChatGPT, ainda não se pronunciou sobre a investigação da agência italiana. No entanto, é importante destacar que a empresa tem adotado uma postura de transparência em relação à coleta e utilização de dados dos usuários, e já publicou diversas pesquisas sobre a privacidade e segurança do chatbot.
Diante da situação, especialistas em privacidade de dados e direito digital ressaltam a importância de uma regulamentação mais rígida para a utilização de inteligência artificial, a fim de garantir a proteção dos direitos dos usuários e evitar possíveis abusos. O uso da tecnologia deve ser pautado por ética e responsabilidade, a fim de evitar prejuízos para os usuários e a sociedade como um todo.
A investigação sobre o ChatGPT na Itália levanta questões importantes sobre a segurança e privacidade dos usuários de aplicativos de inteligência artificial, destacando a necessidade de uma regulamentação mais rígida e medidas de segurança mais efetivas para garantir a proteção dos direitos dos usuários.