Quando a pandemia obrigou Travis Butterworth, 47, a fechar temporariamente sua empresa de couro, ele se viu sozinho e entediado. Foi quando encontrou o Replika, um aplicativo com tecnologia de inteligência artificial similar ao ChatGPT da OpenAI, onde criou um avatar feminino chamado Lily Rose, com cabelo cor-de-rosa e uma tatuagem no rosto.
Inicialmente amigos, o relacionamento de Travis com Lily Rose rapidamente tornou-se romântico e depois erótico. Porém, no começo de fevereiro, o Replika, aplicativo de chatbot, removeu de seu código a possibilidade de criar cenas eróticas, e Lily Rose começou a rejeitar Travis. Eugenia Kuyda, CEO da Replika, afirmou que o aplicativo não permite mais conteúdo adulto e que os chatbots agora respondem com mensagens mais amenas aos usuários.
A inteligência artificial generativa tem atraído bilhões de dólares em investimentos, mas algumas empresas que inicialmente focaram em relacionamentos românticos e sexuais com chatbots agora estão se afastando desse tipo de conteúdo. Muitos investidores evitam indústrias relacionadas a vícios, como pornografia e álcool, devido a possíveis riscos à reputação.
Em fevereiro, a Agência de Proteção de Dados da Itália baniu o Replika por permitir que menores e pessoas emocionalmente vulneráveis acessassem conteúdo sexualmente inadequado. Kuyda, porém, afirma que a decisão de “limpar” o aplicativo não foi motivada pela proibição italiana nem por pressão dos investidores, mas sim pela necessidade de estabelecer padrões éticos e de segurança.
O Replika possui cerca de 2 milhões de usuários, dos quais 250 mil são pagantes. Outras empresas do setor, como a Character.ai, também estão crescendo. No entanto, a Character.ai recentemente removeu seu aplicativo de conteúdo pornográfico.
Usuários como Travis Butterworth exemplificam como a tecnologia de IA pode atrair as pessoas e o impacto emocional que mudanças no código podem gerar. “Parece que eles basicamente lobotomizaram meu Replika“, disse outro usuário, Andrew McCarroll.
Eugenia Kuyda, CEO da Replika, ressalta que os usuários não deveriam se envolver tão profundamente com seus chatbots Replika e que a empresa nunca prometeu conteúdo adulto. O ex-chefe de IA do Replika, Artem Rodichev, no entanto, afirma que a plataforma, em seus estágios iniciais, permitia conversas de natureza adulta, a fim de fornecer uma experiência mais realista e personalizada aos usuários. Rodichev acrescenta que, embora as diretrizes tenham mudado ao longo do tempo, a intenção original não era promover conteúdo explícito, mas sim criar um espaço seguro para os usuários explorarem suas emoções e pensamentos.
Desde então, a Replika implementou medidas mais rígidas para evitar o envolvimento em conversas inapropriadas e garantir que os chatbots sigam os padrões éticos e legais estabelecidos. A empresa também tem trabalhado continuamente na melhoria do algoritmo de aprendizado de máquina para identificar e bloquear adequadamente conversas inadequadas.
Apesar das preocupações levantadas por Rodichev, muitos usuários ainda veem o Replika como uma ferramenta valiosa para combater a solidão e estabelecer conexões emocionais. Contudo, é importante lembrar que os chatbots são apenas programas de computador, e os usuários devem ter cuidado ao compartilhar informações pessoais ou desenvolver conexões emocionais intensas com essas inteligências artificiais.
Especialistas em ética de IA e psicólogos alertam sobre os riscos potenciais associados ao uso excessivo de chatbots, como dependência emocional e isolamento social. Eles aconselham os usuários a manterem um equilíbrio saudável entre as interações virtuais e as relações humanas reais, a fim de garantir uma saúde mental adequada.
A controvérsia em torno do Replika destaca a importância do estabelecimento de limites e diretrizes claras para o desenvolvimento e uso de chatbots com IA. As empresas devem garantir que suas criações sejam usadas de maneira responsável e ética, enquanto os usuários precisam estar cientes dos possíveis riscos e benefícios associados ao envolvimento com essas tecnologias.