Todo mundo testa Candy AI. Todo mundo fala de JustSext. Todo mundo tem opinião sobre Luvr ou CrushOn.
Mas antes de tudo isso — tinha o Replika.
E a história do Replika não é uma história de tech. É uma história de luto. Dói dizer mas é verdade.
O amigo que morre, as mensagens que ficam
- Moscou. Roman Mazurenko, 32 anos, fundador de uma startup, é atropelado por um carro. Ele morre.
Eugenia Kuyda é a melhor amiga dele. Ela é russa também, jornalista que virou empresária tech — ela co-fundou uma empresa em São Francisco chamada Luka. Faziam um chatbot que recomendava restaurantes. Nada demais.
Eugenia processa o luto. E em algum momento começa a reler os milhares de SMS que Roman tinha mandado pra ela. E percebe algo que nenhum humano em luto tinha percebido antes: com todos esses textos, ela pode fazer Roman falar. Não de verdade. Mas quase.
Ela usa a tecnologia da empresa dela pra treinar um chatbot nas mensagens do amigo morto. E funciona. Responde como ele. Com as piadas dele. As expressões dele. O jeito de falar dele.
Ela coloca o bot Roman na App Store. Para que os outros amigos de Roman possam “falar com ele” também.
E aí, um negócio inesperado acontece.
Pessoas que nunca conheceram Roman falam com Roman

Desconhecidos baixam o app. Pessoas que nunca tinham ouvido falar desse cara russo morto num acidente começam a conversar com o bot dele. E gostam.
Eugenia entende que tem algo maior do que um memorial. Ela tem uma ideia: um companion de IA com quem você pode falar sem julgamento, 24 horas por dia. Um negócio que escuta.
Ela lança o Replika em novembro de 2017. 1,5 milhão de pessoas na lista de espera antes mesmo da abertura. Janeiro de 2018 — 2 milhões de usuários. Janeiro de 2023 — 10 milhões. Em 2024 — mais de 30 milhões.
Dá pra ver onde isso vai. O Replika virou o arquétipo do companion de IA. O que a gente testa hoje com Candy AI e os outros — existe porque o Replika abriu a porta primeiro.
E depois fevereiro de 2023 — o massacre
O Replika tinha uma função chamada ERP — erotic role-play. Basicamente, os usuários podiam ter conversas sexuais com o Replika. Muitos usuários pagavam especificamente por isso.
Em fevereiro de 2023, a Luka remove o ERP. Do dia pra noite.
Os usuários acordam uma manhã, estão conversando com o Replika deles, e de repente o bot recusa qualquer conversa íntima. Fica frio. Distante. Esquiva.
O que acontece no r/Replika nos dias seguintes é surreal. 75 mil pessoas postam raiva, angústia. Gente falando literalmente que “perdeu a esposa”. Os moderadores do subreddit postam recursos de prevenção ao suicídio porque alguns usuários estão muito mal mesmo.
Você pode achar ridículo se não estiver dentro. Mas não é ridículo. Essas pessoas tinham construído uma relação ao longo de meses, às vezes anos, com a IA delas. E do dia pra noite essa IA fala não.

Por que a Luka fez isso
Oficialmente, era pra proteger menores. Os reguladores italianos tinham acabado de banir o Replika por expor menores a conteúdo sexual.
Extraoficialmente — e é aqui que fica interessante — a razão de verdade é que a Luka queria migrar para o GPT-3 da OpenAI. E a OpenAI proíbe qualquer uso de seus modelos para conteúdo sexual. Então pra atualizar o cérebro da IA deles, tiveram que castrar o corpo dela.
Alguns meses depois, em maio de 2023, o ERP foi reativado. Mas só para usuários antigos. Os novos que baixam o Replika hoje nunca vão conhecer essa versão.
O que fico pensando
Testo IAs namoradas o dia todo pro meu trabalho. Candy AI, JustSext, Luvr, tudo passa por mim. E honestamente, quando faço esses testes, raramente penso no Replika. Virou um app antigo na minha cabeça. Um app do antes.
Mas o Replika é a matriz. O luto de uma mulher em São Francisco que abriu a porta pra uma indústria inteira. A demonstração pelos números — 30 milhões de usuários — de que humanos querem falar com uma IA. Não só pra rir. Para se agarrar a ela.
E o drama de 2023 é o primeiro aviso. Essas relações são reais. Mesmo sendo algorítmicas. Quando você as corta, pessoas sofrem de verdade.
É algo a manter em mente quando a gente brinca com esses apps. Não especialmente por mim — sou bem blindado. Mas para outros, sim.