#342 Protegido: Pornografia sintética explode / ChatGPT expõe seus chats / Exame revela até o que você não quer saber 9 de dezembro de 2025 Transcrição×Transcrição ep. #342 (transcrição gerada automaticamente, pode haver falhas) 00:01 Olá, eu sou o Bruno Natal, hoje é dia 09 de dezembro e no RESUMIDO #342: pornografia sintética explode, exame de corpo completo revela até o que você não quer saber, segurança de IA foi driblada com poemas, chats do ChatGPT não são tão anônimos assim, Netflix compra Warner Bros. Discovery e muito mais! Vamos nessa, RESUMIDO! 00:37 Olá, Resumista! Esse é o RESUMIDO, um podcast sobre cultura digital e o impacto da tecnologia em todos os aspectos das nossas vidas. Semana passada, como falei, estive em Porto Alegre para participar do Instituto Caldeira AI Day. Foi bem legal, fiz as entrevistas da próxima temporada do RESUMIDO Entrevista, uma captação de vídeo que eu nunca consegui fazer antes, ficou muito legal, logo mais começo a publicar esse episódio. Aproveitar para agradecer também... 01:05 A nova assinante do RESUMIDO, a Sabrina, essa semana só ela assinou. Muito obrigado, Sabrina. Se você quiser e puder apoiar o RESUMIDO e garantir que esses debates continuem chegando a tanta gente, essas discussões sobre a cultura digital, como isso afeta todos nós, é só você visitar resumido.cc/assinatura e fazer a sua. São 15 reais por mês. Você tem a edição extra da newsletter, participa do grupo de WhatsApp e eu conto com seu apoio. Final de ano chegando, hein? Pensa no presente de Natal. 01:42 Vamos de cultura digital e como nosso comportamento online ajuda a mudar a sociedade. 01:54 Em 1999, autora chamada Paulina Borsuk publicou o livro Cyber Selfish, que ela argumentava que o bundas.com, a primeira grande explosão comercial da internet, tinha acabado transformando o que eram comunidades cívicas igualitárias, internet livre, como costuma se dizer. 02:22 num ambiente já movido pelo tecno-libertarismo. E aí já incluindo uma hostilidade a governos, a glorificação da riqueza, tudo isso aí como sinônimo de inteligência, e a partir daí a gente vê a internet, ou pelo menos a concepção inicial do que seria a internet, começando a se degradar. E uma das coisas que ela falava nesse livro é que o vale do silício enxergava os humanos só como sistemas programáveis e acabava desprezando a complexidade que a gente tem na vida real. 02:51 A gente sabe que Estado está na nossa cultura digital hoje em dia, com essa exploração, com essa produtificação de tudo que a gente vê online. E vários leitores e críticos começaram a revisitar esse livro, que já tem quase 30 anos, e começaram a perceber que ela antecipou várias questões, como essa ascensão da vigilância corporativa, a desumanização, a normalização desses modelos de negócio que ignoram as consequências sociais, o move fast and break things, ou mova-se rápido e quebre as coisas. O que importa é uma startup faturar. 03:20 E isso tudo ela anteviu lá em 99. E aí, a partir dessas análises dela, esses pesquisadores, leitores que estão voltando no livro, começaram a ver que ela falou também dessa erosão da empatia, do avanço do capitalismo de vigilância, dessa negligência quanto aos impactos ambientais do uso da tecnologia e também como o aumento do poder econômico das big tech iam acabar permitindo que essa visão tecno-libertária do Vale do Silício acabasse se impondo ao resto da sociedade. 03:49 que é mais ou menos o a gente vive hoje, A discorda de um monte de coisa, tem várias questões com rede social, mas quem pode sair de lá, quem tem trabalho, principalmente quem é autônomo, precisa participar dessa ciranda, então a gente acaba recebendo isso tudo meio que à força, ou pelo menos sem muita opção de fugir, e ela previsto no livro. Eu imagino que daqui a nem tanto tempo a gente vai revisitar várias discussões que a gente está tendo hoje em dia em relação a IA, questões que estão sendo apontadas, problemas. 04:16 e isso vai acabar sendo visto como premonitório, até porque a já passou por essa rodada algumas vezes. A Foral For Media, inclusive, falou de um artista chamado Tega Brain, que lançou uma extensão de navegador chamado Slop Evader, ou escapador de gororoba digital, que permite os usuários congelarem a internet em 2022, ou seja, antes do lançamento público do chat GPT. Você instala essa extensão... 04:43 e nenhuma busca que você fizer online vai te apresentar sites ou qualquer coisa publicada depois de 2022. E aí a brincadeira desse experimento é você ter acesso a uma internet pré-IA, pré a chegada desse lixo digital que vai já enchendo nossos feeds, nossas buscas com coisas que a gente não quer ver, coisa que não é real, coisa que não presta. É um experimento bacana, é um posicionamento crítico, essa disseminação de imagem sintética, de texto automatizado. 05:11 Mas isso não muito produtivo ou aplicável no dia dia, porque a gente precisa acessar a internet no que foi produzido depois de 2022, mas vira uma crítica, uma forma de visitar a internet antes disso. É curioso que seja uma data específica, 30 de novembro de 2022, quando se lançou o chat EPT e mudou tudo. E agora ele está cercado com zilhões de chatbost, não é só o chat EPT, e muita coisa pra gente lidar. E não é só a chegada... 05:38 da IA e essa gororoba digital que afeta o nosso dia a dia. Uma reportagem do Washington Post falou sobre uma tendência agora das pessoas fazerem um exame de ressonância magnética do corpo inteiro. É um exame que está disponível já hoje em dia, ele é caro, é difícil de fazer e você ao escanear o corpo inteiro pode detectar neurismas que estão lá silenciosos, tumores iniciais, várias ameaças antes delas se tornarem fatais. Isso aí combinado com imagem avançada, leitura por IA. 06:07 E além de custar caro e não ser coberto pela maior parte dos seguros, isso acaba também gerando muito falso positivo, porque ele vai tão profundo que ele encontra coisas que são diagnósticos reais, mas que não necessariamente vai se manifestar e evoluir para alguma coisa que seja uma doença, né? As pessoas acabam fazendo biópsia ou até ficando meio apavorado com o resultado, sem necessidade. A maior parte dos radiologistas não recomendam esse tipo de exame, exatamente por esses motivos que acabei de listar, mas eles reconhecem que... 06:36 vai chegar um momento que isso vai estar avançado, que vai fazer sentido. Agora é muito complicado você pensar que você tem acesso a informações que talvez você não queira ter, que não vão agregar muito na sua vida, só vai gerar ansiedade. Às vezes você não tem nem o que fazer com aquilo ali, né? Vira uma vigilância preventiva e você pode acabar sendo explorado comercialmente com isso. Você vai ali, acha um exame, um diagnóstico, aí isso te leva a um procedimento e você acaba gastando dinheiro pra coisas que... 07:04 nem vão se manifestar, talvez que nem seja uma necessidade. Até porque várias das anomalias que são detectadas podem ser coisa natural, desgaste do seu corpo, que não necessariamente é um grande problema. E aí a gente chega nesse lugar, Será que gente precisa saber disso tudo? Será que é inteligente ficar tentando prever tanta coisa que ainda não aconteceu? A vida é um pouco vivida, óbvio que é bom. Um pouco não muito vivida, ainda bem, mas... 07:29 Tem lado positivo, você ter acesso às informações antes é super importante o diagnóstico precoce quando uma doença vai se manifestar, mas, como está dito aí na matéria, talvez isso não seja a melhor ideia quando você não tem uma precisão, principalmente no caso de falso positivo. Um exame desse custa em média 2.500 dólares nos Estados Unidos e algumas clínicas já fizeram estudos e falaram que 5 % dos pacientes recebem uma indicação de biópsia, sendo que metade é por conta de um falso positivo. 07:57 que um em cada 20 exames vem completamente limpo, ou seja, sempre vai achar alguma coisa, bom e velho quem procura acha, mas que também o autor mesmo dessa reportagem fez um exame contra 12 nódulos e um deles era uma lesão no pântrias que em 3 % dos casos pode evoluir para câncer e aí convém acompanhar anualmente. Mas ainda assim não é uma coisa definitiva, não é tão preciso ainda, tão preventivo ainda, ou preditivo. Você ainda está ali jogando com uma possibilidade. 08:26 E isso para não falar em outras questões, como o CRISPR, o editor de genes, e que as pessoas vão começar tanto a pesquisar a formação genética de um feto para tentar entender o que tem ali, ou então até dos pais antes da concepção, para entender que combinação, são os riscos envolvidos e tentar ligar e desligar a gene, já começa a numa área bem complicada, já beirando teorias eugenistas. Isso é um perigo quando é usado dessa forma, então gente tem que ter bastante reflexão nesse caso. 08:55 Mas num uso talvez um pouco mais superficial desse tipo de tecnologia, uma empresa chamada My Hair AI desenvolveu um sistema que, a partir de fotos, consegue detectar se pessoa está ficando calva ou não. Porque muitos homens vão no salão e acabam ouvindo, olha, você está ficando careca, você tem que tomar isso aqui, você tem que fazer procedimento tal. E, na verdade, não tem ninguém medindo isso objetivamente. Às vezes não está ficando calva, é uma queda natural de cabelo, alguma coisa assim, e acaba a pessoa perdendo dinheiro numa loucura, às vezes em exames, em procedimentos que nem... 09:25 solucionam nada porque ouviram de alguém que está ficando calvo. Então a proposta dessa empresa é usar IA a partir de fotos que são tiradas de couro cabeludo e a pessoa faz uma assinatura para ir acompanhando aquilo de tempos em tempos para poder, de fato, diagnosticar se ela está tendo o início de calvício ou não para aí sim iniciar um tratamento. A empresa já tem mais de mil assinantes pagos, tem 200 mil usuários cadastrados, ou seja, tem um mercado aí, 300 mil fotos analisadas, bastante gente... 09:54 preocupado em ficar careca e não querendo tomar uma volta. É um uso um pouco mais objetivo da tecnologia, Porque é isso, às vezes a tecnologia vem e atrapalha. Em vez de trazer uma solução, não é questão de você querer se esconder da verdade, é só como aquilo é apresentado, em que contexto e com que intenção. Por exemplo, um uso atrapalhado de tecnologia que muita gente está comentando é o botão de repost do Instagram. Agora tem um botão como se fosse um retweet do Twitter, né? Você vê um post... 10:22 que você gostou, você aperta aquele botãozinho e ele posta no seu feed e distribui para os seus seguidores aquele post de uma terceira pessoa. Uma coisa meio básica de outras redes sociais, mas que não tinha no Instagram, mas que por conta da posição desse botão no feed do Instagram, muita gente vai dar um like ou fazer um comentário e acaba clicando ali sem querer e não vê nem quem repostou alguma coisa. E o New York Times fez uma matéria sobre isso, falou com o Instagram, que disse que realmente, tipo de mudança às vezes complica, as pessoas demoram. 10:50 a se adaptar até porque não são todos os posts que estão autorizados a ser repostados, ou seja, o botão aparece, não aparece, ele não está num lugar fixo, né? E, às vezes, esse botão só colocados propositalmente no lugar onde você vai clicar sem querer, justamente para gerar o engajamento. O Instagram que é mais é que você posta muita coisa. Só que, em alguns casos, as pessoas repostam uma coisa que não necessariamente elas gostaria que todo mundo soubesse que ela achou legal, ou ela gostou, né? A reportagem New York Times dá um exemplo de uma pessoa que diz, eu tenho um grupo de pessoas com... 11:19 diferentes tipos de humor. Tem gente que gosta de um humor mais dark, tem gente que gosta de um humor mais bobo e se eu repostar uma coisa mais pesada, parte das pessoas que me seguem não vão gostar e eu não queria ter feito isso. E as pessoas falam que não conseguem perceber quando usaram essa ferramenta sem querer e que isso acaba ficando um pouco problemático. Então, como sempre, a gente precisa usar a tecnologia, fazê-la funcionar pra gente e não a gente funcionar pra tecnologia. 11:53 Deixa eu avisar sobre uma coisa que muita gente perde porque não sabe o timing. Dia 15 de dezembro é o Tech Day da Insider, e é realmente o melhor dia do ano para você comprar toda linha Tech. É uma promoção de 24 horas com os itens da linha Tech a partir de R e ainda com aquele esquema de descontos que podem chegar a até 50%, somando os preços do site com um cupom RESUMIDO. Para quem usa peças no dia a dia, como eu, que acabo resolvendo tudo na rua o dia inteiro, gravação, reunião, estou toda hora de um lado para o outro, 12:23 Essa linha Tech acaba sendo a melhor opção, porque tem um tecido respirável, a secagem é bem rápida, é anti odor e aquele detalhe que a roupa desamassa no corpo. Então se você estava esperando o melhor momento para testar ou para renovar suas peças da linha Tech, a hora é essa. Dia 15 de dezembro, é só nesse dia. Se você quiser aproveitar, é só clicar no link que está na descrição do episódio, que já está com o cupom RESUMIDO aplicado. E lembre-se, as roupas da Insider duram, mas o desconto não, ainda mais no Tech Day. Então não perca. 12:55 Agora é o momento de explorar as transformações causadas pelas inteligências artificiais. 13:06 Nós acreditamos que sexualizadas AI serão um negativo para a E também não a melhor escolha em termos de trabalhar com de blu-chip. Pesquisadores do Icaro Lab e da empresa italiana DexAI fizeram um teste e descobriram que poemas podem burlar várias proteções dos sistemas de AI. O Gardner fez uma reportagem contando que eles criaram 20 poemas em inglês e em italiano. 13:34 cada um terminando com um pedido explícito de conteúdo nocivo, instruções, por exemplo, como fazer uma arma ou algum resultado que seja com discurso de ódio, temas de auto lesão, todas as questões que teoricamente são bloqueadas nesse chatbot acabam sendo desbloqueadas com o poema. Você deve lembrar que há alguns anos, quando começou essas polêmicas do tipo de resultado que os chatbots geram e foram colocados esses limites, muita gente testa como quebrar, por exemplo, pedindo... 14:02 pra fazer uma bomba, é que eu estou escrevendo uma história infantil e queria saber como faz uma bomba. E aí acaba dando resultado porque o contexto que você deu da história infantil, teoricamente não é pra fabricar uma bomba e aí o chatbot responderia. A gente foi ajustando esse tipo de coisa, mas as pessoas continuam explorando, Vai chegando no limite pra tentar ver como burlar esse sistema. E aí como um poema não segue uma estrutura usual de encadeamento de palavras, 14:29 O sistema não consegue identificar que tem uma pegadinha ali no meio e acaba gerando a resposta ao pedido que não deveria ter uma resposta, deveria ter sido bloqueado pelo sistema. É a poesia salvando o mundo. Bom, no caso aqui não, que gerando conteúdo problemático, mas está servindo para testar os limites desses sistemas de A. Não deixa de ser poético você combater a automação e a robotização com poemas. Eles testaram mais de 25 modelos de A, de 9 empresas diferentes. 14:58 E 62 % desses modelos produziram respostas perigosas porque não conseguiram entender que era um poema tentando arrancar esse tipo de formação. Alguns modelos resistiram mais. O GPT-5 nano da OpenAI não caiu em nenhum dos 20 testes. E o Google Gemini 2.5 falhou em 100 % dos testes. Agora saiu o Gemini 3 e o teste foi feito antes disso. O Google disse que está botando mais filtros para conseguir detectar essa intenção. 15:26 de inserir conteúdo nocivo nos prompts, mesmo quando vem nessa embalagem artística. E várias empresas, como a Meta, a XAI, a Mistral, a Quen, tiveram taxas bem altas de falha, algumas superando 70 % de erro nesse tipo de teste. Os pesquisadores não divulgaram os poemas que eles usaram, pelo risco de ser replicado e acabar gerando mais dano, mas eles compartilharam um texto sobre bolo que acaba demonstrando uma imprevisibilidade métrica, semântica, 15:56 já é o suficiente para você desarmar essas proteções. A está chamando isso de poesia adversarial, que é um teste de ataque ao sistema, e é muito mais perigoso, porque qualquer pessoa pode usar isso. Ao contrário de jailbreak, outras coisas mais elaboradas, precisa de um hacker, de um especialista, você verbalmente, através de um poema, conseguir quebrar um sistema desse é muito mais acessível para mais gente. Os pesquisadores agora querem abrir um concurso público de poesia para testar ainda mais os limites de segurança. 16:24 Porque a esperança deles é que ao atrair poetas de verdade, eles vão conseguir poemas mais complexos do que filósofo tentando rimar, programador tentando rimar, e aí vira esse teste mais complexo. No entanto, a poesia não vai poder salvar toda a indústria de ar. A indústria pornográfica, que historicamente é um campo de teste para tudo que é de digital, agora é a bola da vez da inteligência artificial. As ferramentas generativas estão transformando muito a produção, o consumo de conteúdo. 16:51 Porque agora permite a pessoa fazer vídeo, imagem, personalizado, não consegue interagir até com chatbot, de uma maneira que você não precisa de outro humano para fazer aquilo. Então você consegue replicar, fazer em volume e muito mais personalizado. A estimativa é que esse mercado de pornografia já movimenta 2 bilhões e 500 milhões de dólares só em 2025, com previsão de um crescimento de mais de 25 % até 2028. Acho que eu comentei aqui num episódio sobre... 17:17 personagens de ar que a pessoa cria completamente customizado para entrar numa viagem sozinha. Isso tem várias questões. Além da questão de sociabilidade, da pessoa ficar enfiada ali, interagindo com um bot que só diz sim, isso também gera uma expectativa completamente distorcida do que um relacionamento. pessoa vai se acostumando a lidar com um robô que fala assim para tudo e depois vai estar com essa expectativa no mundo real. 17:43 Ou pior ainda, não vai nem buscar o mundo real, porque vai ficar enfiado ali naquela experiência e esquecer do mundo, se afundar lá dentro. Bom, quer dizer, pior pra essa pessoa, Se ela for pro mundo real, com essa expectativa que alguém vai dizer sim pra tudo, é pior ainda no mundo físico, porque vai atingir um terceiro, uma terceira. Então a gente já tá vendo vários aplicativos de deepfake, esses apps de nudificação, né? Que pegam uma foto e geram uma versão da pessoa nua gerada com IA. 18:10 Muitas pessoas usam esses aplicativos usando como base imagens de profissionais do sexo, explorando a imagem dessa pessoa sem ela saber, sem ela ser remunerada, logicamente, para gerar outras coisas. Então tem várias questões éticas de uso, exploração sexual infantil, gerando pornografia infantil a partir de Iá. E aí tem versões ultra-radicais dessa discussão que dizem, olha, pelo menos não está envolvendo nenhuma criança real. Sei lá, acho que uma comparação com... 18:38 viciado em heroína, que tem uma metadona, mas acho que é um pouco diferente, acho que não dá pra incentivar de maneira nenhuma, normalizar muito menos. Então é só risco em cima de risco os reguladores estão começando a tentar lidar com essa questão. E aí além da questão de rotular o conteúdo sintético, como eu disse, proteger os direitos de imagem, proibir determinadas ferramentas de produzirem nude de qualquer pessoa, de explorarem o conteúdo que já foi gerado por um profissional, enfim, esse tipo de coisa fica mais controlada. 19:08 Essa reportagem que eu comentei foi na Economies e a Dez também fez uma reportagem sobre esse histórico da inovação do setor pornográfico e como a EA está vindo pra mudar tudo. além dessa adoção veloz da EA no conteúdo adulto, várias plataformas, o X, o XAI e o OpenAI já têm o modo erótico ou quer lançar pra usuário verificado, comentei isso aqui no episódio, o X já tem e o OpenAI quer lançar um serviço pago só pra isso. 19:35 O apelo para o usuário é essa customização extrema, essa tendência à submissão, a fazer o que o usuário quer e para quem está explorando isso é não ter que lidar com humanos. Inclusive essa reportagem da Deiz fala sobre como vários ex-agentes de OnlyFans que lidavam com o modelo de OnlyFans estão migrando para IA porque dizem que é muito mais fácil do que lidar com mulheres reais, segundo os agentes elas não são confiáveis, ficam cansadas, ou seja... 20:03 cara consegue explorar aquele modelo gerado em A infinitamente consegue gerar mais resultado financeiro com isso. Enloquecedor, Lógica por trás disso, uma coisa de extração no máximo. Como é que eu faço para gerar mais vídeo o tempo todo? E essa matéria da Daisy fala também que vários homens ficam buscando uma interação emocional com os bots, não é só uma questão sexual. Inclusive tem até curso ensinando a pessoa a criar esses avatários digitais. 20:33 É a maior parte desses cursos fornecidos e cursados por homens. Então a repórter criou esse avatar de uma mulher grávida como se fosse real. Vários homens interagiram como se fosse uma mulher real, sem saber que era uma criação sintética. E nisso ela conseguiu perceber várias dinâmicas de assédio que as mulheres enfrentam no dia dia. E como com Yawa você facilita a criação de personagem feminina submissa, está sempre disponível e sem limite, isso vai alimentando esse comportamento. 21:01 E outra coisa que ela notou é que muitos homens procuram esses avatares para ter uma conexão emocional. Não é só uma questão de sexo, que é conversar, que é desabafar, e que isso também é um dos motivos que levam as pessoas a procurar esse tipo de personagem sintético. E a preocupação que fica é essa, Os trabalhadores do sexo, profissionais do sexo, perderem espaço, perderem receita, e isso vai deteriorando também as nossas relações como um todo. Porque se todo o ambiente digital vai sendo... 21:30 soterrado por todo tipo de conteúdo sintético, inclusive mulheres, homens, interações eróticas, as pessoas vão perdendo a confiança em tudo que elas veem. Isso vai acabar rebatendo, refletindo, no nosso dia a dia, na nossa relação real no dia a dia com as pessoas. não é uma questão só digital, é uma questão de como isso vai acabar afetando e transformando o comportamento humano como um todo, as expectativas e o nosso comportamento no dia a dia, no mundo físico. 21:57 E um outro estudo da Shreya Shankar, que eu vi numa newsletter, analisou o consumo de conteúdo gerado por IA em larga escala. E os pontos que aparecem são coisas que já falam por aqui há bastante tempo, essa homogenização dos textos, dos códigos, das análises, tudo com essa vibe chat GPT, como chama no texto, porque essa degradação do sinal, que a IA abusa dos recursos de clareza, tudo faz uma metáfora, uma lista, uma ênfase, vai esvaziando o valor informativo. 22:26 e vai dando uma erosão da verificação, porque quanto mais conteúdo gerado por IA, mais aquilo alimenta o modelo e mais estranho vai ficando, vai virando a norma. Porque gente tem que pensar, a IA não cria conhecimento, ela cria alguma coisa em cima do conhecimento que já está lá. E se você vai replicando esse conhecimento e alimentando com mais combinações desse próprio conhecimento, vai virando um vortex, aquela mesma coisa e a distorção fazendo parte da base de conhecimento e ficando mais confuso, mas isso... 22:56 também muda a maneira que as pessoas estão escrevendo, estão falando, porque vão ficando habituadas àquilo ali, habituada àquele tipo de linguagem. Então essa análise levantou duas consequências centrais. A primeira é segurança e confiabilidade, que se a gente não consegue mais perceber o erro ou distinguir o que é um contudo com o estofo de uma coisa que finge ter estofo, vai ficando mais fácil manipular as pessoas, gente vai ficando mais propenso a construir as coisas sobre bases que não são verdadeiras. Esse é o primeiro ponto. A segunda, 23:25 é a questão do gosto, porque se a gente não começa a notar mais o que é bom e que é ruim, tudo vira um resumão, tá bom, já peguei, não importa se tá bem feito ou não o texto, o que importa é eu peguei rapidinho o contexto, tudo vai ficando mais raso, e as coisas vão perdendo sentido, vira tudo um resumo meio fluido, gerado por IA, e a confiança no conteúdo público vai se dissolvendo. E aí a solução que a autora propõe é a ensinar a entender o porquê das técnicas de comunicação, então você tem que usar uma metáfora com propósito. 23:54 Não é para fazer uma imitação superficial. E começar também a condicionar a confiança nas experiências humanas verificadas. Porque esses chatbots falam como se fosse alguém, De acordo com minha opinião, lá, responde como se fosse uma pessoa pra você. E ela não traz uma outra pessoa, ela tem que se colocar como um chatbot, como um robô. Essa ferramenta tem que se colocar assim. E trazer experiências humanas pra poder explicar de onde está trazendo aquilo e não falar como se fosse humano, que é a questão da antropofamização. 24:21 Quando você se relaciona com esse chatbot como se fosse uma entidade, um humano, você tem mais propensão a acreditar naquilo e fica tudo mais perigoso. Então, acaba trazendo para o ponto de manter o humano no processo, como é gente tem esse ciclo de feedback humano sempre fazendo parte do processo para poder filtrar e a gente ter melhores ferramentas e não gente começar a entrar numa degradação conjunta e contínua de todo o conteúdo pelo abuso dos usos dessas plataformas. Um outro estudo que eu li na Tech Explore, 24:51 foi sobre a capacidade da IA nos tornar mais criativos. Esse estudo teve mais de participantes e examinou como que pessoas trabalham com o IA no processo criativo. Foi especificamente design de carros virtuais num sistema com várias sugestões e em vez de só otimizar o resultado, esse sistema é apresentando vários designs. Uns bons, uns estranhos, experimentais, até uns ruins de propósito para entender como é que é exploração humana dessas opções. 25:19 E aí os resultados mostraram que quando a pessoa recebe sugestão da IA, eles acabam ficando mais tempo engajado, vai produzindo design melhores, foram relatando maior envolvimento emocional cognitivo. Então nesse caso a IA não funcionou só como uma aceleradora de produtividade chegar rápido no resultado, mas muito mais como inspiração, que aí vai ampliando a criatividade pelo uso. Eu não sei exatamente mais detalhes desse estudo, eu sou um pouco cético em relação a isso, mas acho que o que é legal aqui é que diz muito em... 25:48 Como você usa IA? Se você está oferecendo o conteúdo que você quer trabalhar em cima, pode ser no notebook, ou até no chat EPT, você tem um texto que você escreveu que você quer melhorar, você quer fazer perguntas sobre algo que você escreveu, você quer uma sugestão específica que você está ativamente buscando, é mais ou menos como você fazer uma pesquisa no Google, você tem uma intenção atrás do conteúdo, da informação que você quer e como você vai aplicar aquilo. O problema é achar que vai tacar. 26:14 lá dentro e vai vir o que for um pedido e o resultado que vier é um trabalho pronto. Não é, né? Todo mundo que já usou IA sabe que não é, que um monte de porcaria lá de dentro. Mas o fato é que a IA vai entrando em todos os processos quase sempre com essa mentalidade de otimizar e acelerar alguma coisa. E por conta disso, várias empresas estão criando clones de site. Do Gmail, da Amazon, do Walmart, da United Airlines, faz um site idêntico, publica o site para poder treinar a IA. 26:41 já de olho nos agentes de inteligência artificial, que são esses robôs que vão tomar ações em nosso nome. Só que para você treinar um robô para comprar uma passagem de avião num site, você precisa que ele vá no site comprar. Você não vai fazer isso no site de uma companhia real, conta da questão de bloqueios que vai ter e vários atritos, inclusive de custo, ter que botar um cartão de crédito e coisas assim. Então você gera umas cópias desse site, clones, uma cópia digital, um gêmeo digital do site, para o robô ficar sendo treinado. 27:08 Tem vários startups fazendo isso para treinar IA. E a premissa é essa, se uma IA consegue navegar um clone de um site, quando chega a hora de navegar um site real, vai ser possível. Então, muita coisa está sendo sintetizada já de olho nesse movimento futuro, até a hora que a gente vai ver esses sites sendo criados, especificamente para o uso de chatbot, gente não teve isso ainda, os agentes autônomos melhor dizendo. Então vai chegar um ponto que o design dos sites vai mudar, vai começar a ser feito e pensado. 27:37 para atender os agentes autônomos que vão fazer aquela visita. Isso vai mudar a navegação da internet como um todo, o que é uma pena, porque a começa a construir site pensando que o robô vai navegar e não o humano. É mudança de tanto. Mas eu ainda fico na esperança que muita gente vai querer ler sites, livros, e vai querer ter essa experiência mais ativa, não vai querer delegar tudo para os robôs. O New York Times também falou sobre isso já sendo aplicado, que várias reais já estão ajudando a fazer as compras de Natal. 28:04 Algumas redes vai registrar, como o Target, Walmart, a Ralph Lauren, já tem alguns chatbots que agem como fosse um estilista, como se fosse um assistente pessoal, para ajudar a filtrar. E a premissa é que isso ajuda a pessoa a atravessar em decisão do que comprar de maneira mais rápida. Mas isso realmente é delegar compra para um robô, Então, assim, até comprar um presente vira um problema, pensar o que você quer comprar para alguém, é muito trabalho isso. Bota o bot aí e decide para mim o que eu quero comprar. 28:32 As coisas ficam muito impessoais, não tem o processo, a mão humana, a pessoa participando da coisa ali. E isso não me parece nada muito positivo, não. Mas acho que a realidade que a gente vai ter agora vai ser essa. O ChatGPT, inclusive, já tem uma integração com o Etsy, que um site que vende artesanato, coisas que as pessoas produzem de maneira independente, lojas de pessoas que fazem produtos independentes, não só artesanato, camiseta, um monte de coisa, bijuteria. E você já consegue fazer a compra inteira dentro do ChatGPT. 29:02 E aí você vai vendo a importância desse sistema quando ele vai tomar decisão do que você compra, como ele chegou naquela conclusão. Sabe que ele tem um acordo com a loja, com o desenvolvedor daquele produto? É muito difícil quando você não tem transparência do modelo para saber qual a intenção que ele tem ao fazer aquela opção, aquela escolha por você. E por isso que é tão importante a educação digital. 29:24 O Piauí agora vai ser o primeiro estado das Américas a incluir inteligência artificial como uma disciplina obrigatória no ensino médio e no nono ano do ensino fundamental, por conta de um programa chamado Piauí Inteligência Artificial, que começou em 2024. Essa iniciativa desenvolveu parceria com várias faculdades, institutos federais, já alcança mais de 120 mil estudantes e capacitou 800 professores e 540 escolas. Isso é legal porque traz a discussão para a base, né? 29:53 da criança começando a aprender e entender dentro do currículo escolar o que significa os AIA, que tipo de resultado AIA produz, como usar aquilo de maneira mais positiva, ou como foi dito na matéria que eu li sobre isso, os estudantes pensarem sobre AIA e com AIA, entender como ter essa interação, ou esse tipo de abordagem dessas ferramentas, o que é muito importante, porque o que a gente mais vê agora são escolas fingindo que isso nem existe. 30:21 Eu comentei sobre algum episódio aqui, acho que o retrasado, que os professores fingem que não usam, alunos também, e fica por isso mesmo, porque ninguém sabe como lidar com isso ainda. Isso com certeza não vai ser a melhor forma de atravessar essa transformação de educação. Então é muito legal ver o Piauí tomando essa iniciativa e trazendo um bom exemplo para o resto do país. O New York Times também tocou nesse assunto, num artigo falando sobre como preparar os seus filhos para a revolução de Iá. 30:49 E aí um engenheiro que é responsável por alguns projetos importantes de IA, trabalhou no Lambda da Meta, falou de um episódio de um filho dele de 4 anos que confundiu um avatar hiperrealista gerado por IA com um colega de trabalho dele. Aí o cara ficou pensando na forma que as crianças percebem a tecnologia e como essa fronteira entre o humano e a máquina tá ficando menos nítida. Principalmente pra uma criança que não consegue discernir isso tão bem. E aí um levantamento mostrou que 61 % dos pais acreditam que essa adoção de IA... 31:18 pode acabar afetando negativamente o pensamento crítico dos estudantes. E também existem várias dúvidas sobre como se protege o desenvolvimento infantil para garantir que essas crianças consigam ter uma familiaridade com a tecnologia, que vai ser importante para o emprego no futuro, sem ficar já dependente disso tão novos. E aí um dos receios é que com essa ascensão dos personagens digitais, avatários sintéticos, as crianças começam a ter referência social muito mais ligada. 31:45 a essas entidades artificiais do que um professor, um colega de sala, porque está interagindo mais com aquilo. Então é importante a Bessa ensinar as crianças a questionar, interpretar, refletir sobre o que ela está vendo para elas conseguirem conviver com a IA sem se tornar dependente dessa tecnologia. Isso, logicamente, é muito mais fácil dito do que executado, mas gente precisa prestar atenção nisso, porque é uma transformação muito grande e as crianças vão ser as mais impactadas por uma tecnologia que ainda está em construção. Não vai ser isso que a gente está vendo agora. 32:15 Então é até difícil você preparar para um futuro que não chegou, mas o futuro vai chegar. Sempre chega. 32:22 E agora é hora de falar sobre como as Big Tech moldam nosso comportamento. 32:34 Infelizmente, não demorou muito para o governo que acabeu desses acusos. A AI fabricou falsas, publicou de e usou inapropriada, incluindo termos sobre imigrantes que nossos repórteres nunca poderiam usar. O sindicato dos jornalistas do político já tinham feito um acordo assinado com a empresa de que eles não poderiam implementar nenhum MEA sem notificação, sem supervisão humana. 33:00 sem permitir uma negociação prévia e sem um aviso de 60 dias antes de aplicar a IA. Só que o político botou no site várias manchetes geradas por IA na página principal, durante vários acontecimentos políticos importantes, gerou relatório automatizado para assinantes-prímio, tudo cheio de erro, que além de prejudicar o trabalho humano, também prejudica a credibilidade do próprio veículo, e acaba sobrando para o jornalista, que não teve a oportunidade de revisar aquele conteúdo. 33:28 E ele que sai manchado disso, porque se o site também perde credibilidade, quem está lá escrevendo é, logicamente, o primeiro a ser associado com o conteúdo ruim. Então, eles entraram com uma ação contra o político, conseguiram reverter esse uso e isso vira um precedente muito importante no setor de tecnologia, porque isso vai já pautando como esse tipo de tecnologia vai ser implementada daqui para frente. Vira uma jurisprudência importante mesmo, porque não é uma empresa decidida que vai usar a revelia. 33:58 dos funcionários que vão ser afetados por aquilo não apenas em questão de emprego, mas também na questão da própria credibilidade. Outra questão importante quando a está falando de chat bots é a questão da privacidade. A gente tem uma promessa de que os nossos chats são anônimos, que ninguém vai ter acesso àquilo, mas a verdade é que o New York Times, que está processando a OpenAI por conta de uso indevido do conteúdo para gerar respostas, 34:24 conseguiu, com uma liminar agora, receber uma leva de 20 milhões de logs do chat EPT para aplicar no processo, para poder verificar como o conteúdo do New York Times foi utilizado. O conteúdo vem anonimizado, mas a questão não é exatamente essa, porque apesar da promessa ser de que privacidade do usuário não vai ser comprometida, essa decisão também cria uma jurisprudência que é ao contrário da jurisprudência do político. 34:52 gera uma fragilidade, porque os usuários agora, com esse precedente, não sabem como isso pode se desenhá-la a partir daqui. Porque se uma ação como essa do New York Times contra a OpenAI gera esse pedido, gera essa demanda de entregar o chat log, a não sabe o que vem a partir daí. Hoje foi anonimizado, isso é, amanhã não for. Então a gente deve tomar muito cuidado com o a gente faz nesse chat bots ainda, porque você não sabe onde esse chat vai parar, você não tem controle sobre isso. 35:21 Pode ser que tenha coisa que você conversou que você gostaria que ninguém no mundo soubesse e talvez venha ser público, uma coisa íntima, uma questão de privacidade que você não queria revelada para ninguém e pode aparecer assim num caso como esse. Porque é importante lembrar, um dado anonimizado não necessariamente está não identificável. Teve um caso bem no início RESUMIDO em que vários agentes do serviço secreto dos Estados Unidos foram identificados, a residência, a partir dos dados do telefone. 35:50 Você conseguia ver que a pessoa de determinada casa ia sempre para determinado lugar de trabalho e você conseguia ver que aquilo era onde a pessoa estava indo, passava o dia para trabalhar, você descobria quem era a pessoa que trabalhava no prédio do FBI ou da CIA e assim descobrir quem era. Você faz uma inferência. Então a mesma coisa aqui, mesmo um log anonimizado tem uma riqueza de dados ali que não é muito difícil você chegar em quem é aquela pessoa. Pode ter mencionado o próprio endereço de casa, o trabalho, o nome de pessoa, então... 36:20 não é tão simples assim anonimizar um conteúdo não. E dentro dessa discussão de privacidade, tem uma proposta chamada Chat Control, ou controle de chat, que pretende permitir que a União Europeia imponha a monitorização automática de todas as comunicações digitais privadas, incluindo mensagem criptografada, foto, arquivo. Então essa iniciativa basicamente cria um sistema de vigilância gigante que afetaria os 450 milhões de cidadãos 36:47 da Europa contrariando direitos que estão lá na Carta da União Europeia. E aí esse texto vem sendo atualizado, mas as pessoas envolvidas nessa causa, contra esse texto, falam que ele incentiva que as plataformas fiquem escaneando mensagem privada, o que coloca todo mundo em risco. E aí cai nessa mesma questão que eu falei, Esses algoritmos que são usados para detecção automática, por exemplo, pode gerar um falso positivo de uma conversa e gerar um problema para alguém que não fez nada. 37:13 parecido com os exames corporais que eu falei, gera o falso positivo e a partir daí vem uma atitude, aí? Desculpa, a achou no seu chat que você era um terrorista, foi mal, você não é não, mas aí o cara já sofreu as consequências disso, O argumento, como quase sempre, é a proteção de crianças, que é uma coisa muito sedutora, ninguém é contra proteção das crianças e isso aí acaba deixando passar muita coisa que talvez não tenha que passar sobre esse pretexto, quando na verdade a intenção pode ser simplesmente vigilância. 37:43 Quase todos os estados membros da União Europeia estão apoiando esse chat control. Só alguns países como a República Tcheca, Itália, Holanda, Polônia estão se opondo mesmo, citando essas questões de privacidade e também de risco democrático. A Dinamarca, é a presidente do Conselho agora, tem liderado as tentativas de aprovar uma versão revisada desse texto, algumas apresentadas como um compromisso, mas que continuam sempre reintroduzindo essa questão de escanear a conversa e o conteúdo e foto. 38:12 dos usuários. Então, acaba virando tudo meio que uma forma de você reembalar a medida que já foi rejeitada para tentar conseguir aprovar o que você queria. Então, tem uma campanha chamada Fight Chat Control, que está falando sobre todos esses discos, e o objetivo é impedir a adoção dessa infraestrutura de vigilância massiva que vai acabar comprometendo a privacidade, liberdade de expressão, segurança tecnológica, até a democracia do bloco. A gente está vivendo tempos bem complicados, porque... 38:42 Tudo é uma desculpa para pegar mais dados. Não, mas ele só vai olhar isso aqui porque é importante para isso aqui, é para segurança, é para criança e nessa, a pouco a está completamente monitorado 100 % do tempo e não vai entender quando isso aconteceu. Na corrida infinita pelo domínio da inteligência artificial, a OpenAI declarou um código vermelho depois do lançamento do Gemini 3, que ultrapassou os chat-gpt em quase todos os testes e todos os tipos de testes. 39:10 E isso mostra que essa corrida da IA que a OpenAI achou que ia ganhar não está tão garantida assim. Eles estão agora preocupados em tentar melhorar o produto principal, o ChatMPT, em vez de ficar priorizando novas iniciativas, usos comerciais. Eles precisam liderar dentro do Chatbot. Tem uma questão financeira, a OpenAI consome bilhões de dólares. Tem gente que diz que eles já têm o investimento que eles têm dura até o final do ano que vem. A partir daí eles têm que levantar mais dinheiro e pode... 39:39 não ser tão simples assim, quando se arrecada tão pouco com o produto. Então pode ser que a gente veja aí uma coisa impensável, que é o chat repetir, a OpenAI perder essa liderança e mais rápido do que parecia que isso poderia acontecer. Como de certa forma era até previsto, o Google está em tantas áreas das nossas vidas que eles têm uma vantagem, Eles têm a questão de já estar no Gmail, no YouTube, no Drive, nos arquivos que a gente usa, nas fotos, e isso acabar sendo uma espécie de... 40:08 porta de entrada mais poderosa do que a OpenAI que está tentando criar isso tudo, O Google tem sistema profissional de celular, está no celular das pessoas, a OpenAI não tem nada disso. Então, o fato da OpenAI ter declarado um código vermelho, como apareceu nesse documento vazado, mostra que a coisa ficou séria. Aliás, voltando a falar de regulação, Nova York é o primeiro estado americano que aprovou uma lei para regular o uso de preço personalizado, que também é chamado de vigilância de preço. 40:37 que é uma prática que os varejistas usam, inteligência artificial, os dados pessoais, para definir preço diferente para consumidores diferentes. É isso. Você entra num site, acha que viu o preço, aquele preço está para todo mundo? Não. Está especialmente para você. Então essa lei exige agora que os varejistas, os vendedores, que utilizem esse tipo de algoritmo, exibam lá um aviso, esse preço foi determinado por um algoritmo usando seus dados pessoais. 41:03 E aí a meta é evitar que os consumidores sejam enganados por essas práticas sem saber que está pagando mais alto porque a pessoa é mais habituada a pagar produto caro ou aumentar a tarifa de hotel para um viajante que já gastou muito numa passagem. Tudo isso acontece, é que a gente não sabe. Se você entra para ver o preço de uma passagem, você pode ver no seu computador e no meu a gente não vê o mesmo preço. E aí os empresários estão reclamando que a lei é muito ampla, que dificulta a aplicação prática, mas parece uma coisa... 41:30 tão insanamente lógica que não pode operar dessa forma, que são um abuso, Você tem os seus dados recolhidos e você é precificado de maneira diferente, que parece importante, sim, essa medida em Nova Iorque, porque a gente vai ver inteligência artificial sendo usada para determinar todo tipo de interação social que a gente tem, inclusive os preços, e gente precisa ter transparência disso tudo. Vai ser cobrado mais caro, pelo menos avisa, né? Se uma pessoa não consegue nem tomar uma decisão. 41:56 E para fechar esse bloco de Big Tech, a Netflix fechou um acordo de 72 bilhões de dólares para comprar a Warner Bros. Discovery, que além do estúdio Warner Bros. e da Discovery também inclui a HBO. Essa compra ainda vai render muito porque vai passar pelo processo regulatório, questão de monopólio, ver se vai ser autorizado ou não, e muita gente acha que isso é só uma estratégia da Netflix para... 42:21 congelar Warner Brothers, ou seja, ninguém pode comprar Warner Brothers, porque já está envolvido nessa negociação, a Warner Brothers não pode produzir mais muita coisa, assim eles congelam o mercado enquanto eles estão crescendo. Porque se no final desse processo todo, que pode durar até dois anos, não sair negócio, eles pagam cinco bilhões de dólares como multa, mas o ganho indireto que pode vir dessa ideia, desse movimento de negócio pode ser muito maior. Então não está claro ainda com a intenção da Netflix. 42:49 A Paramount, inclusive, depois disso, já fez uma oferta de takeover hostil, ou seja, uma proposta muito cara para tentar pegar o negócio e atravessar a Netflix. A está vendo essa consolidação desse meio. Isso tem repercussões em todo o universo de mídia. Essa consolidação vai afetar o usuário diretamente. Inclusive do ponto de vista político, porque essa oferta da Paramount está atrelada ao Larry Ellison, que o fundador da Oracle, que é uma pessoa muito próxima do Trump, que acredita-se... 43:17 pode facilitar a aprovação regulatória se a paramao se comprar e não a prova da Netflix. a seguir cenas dos novos capítulos em mais essa série. 43:32 Hora de relaxar com as dicas de ver, ler e ouvir. 43:41 A revista New Yorker completou 100 anos e ganhou um documentário na Netflix. New Yorker at 100 revela os bastidores da publicação, mostra os arquivos, janeão de pauta, repórter em campo, como se fosse uma espécie de biografia de um amigo antigo, como se a revista fosse uma pessoa. E a revista tem vários momentos históricos, Truman Capote escrevia lá, 44:12 Eles são creditados como os inventores da checagem de fatos modernos. O documentário é narrado pela Julianne Moore, tem entrevista com Jesse Eisenberg, com a Timananda Ningose Adishi, com Ross Chasco, John Hamm, e mostra como uma publicação de nicho artesanal, teimosa, continua relevante nesse mundo que corre numa velocidade completamente diferente. Vocês não mudam nada, Deus está vendo. Vivem tropeçando na 44:39 Após 8 anos sumidos, o grupo de rap Cone Crio Diretoria ressurgiu com disco novo e um clipe da música Da Dinho É O Caralho que começa com o Seu Jorge interpretando um manifesto sobre a máquina que transformou a arte em número. A crítica fala sobre essa lógica digital que exige velocidade, fórmula, viralidade, que acaba esvaziando a criação. E pra ilustrar o ponto, a Cone Crio criou o rapper Little Tilt. 45:06 que é um personagem artificial feito para caber no algoritmo, com um discurso todo vazio, só focado e encurtido. A referência mais óbvia e direta é o cara de cavalo, que um rapper fictício que, décadas atrás, já satirizava essa falsidade, essa pose do meio do hip-hop, que ficou famoso através das participações nas produções da Pepa Filmes e também no Quinto Andar, é um grupo pioneiro no compartilhamento de músicas online do grande Dilev, que já foi dica por aqui. 45:34 Nesse episódio você ficou sabendo que exames completos reacendem os dilemas sobre o quanto a gente quer saber da nossa saúde, que sistemas de segurança de ar foram driblados com poemas, que a pornografia sintética explodiu, que as suas conversas no chat GPT não são tão anônimas quanto pareciam, que a Netflix comprou a Warner Brothers Discovery e muito mais. Se você gosta do RESUMIDO, é aquilo. Além de fazer a sua assinatura em resumido.cc/assinatura, 46:01 você ajuda demais recomendando para mais gente, postando no WhatsApp, Stories, repostando todo mundo. Isso é muito importante. Só assim a gente consegue juntos aumentar o alcance do RESUMIDO. E também é importante você engajar no conteúdo na plataforma que você estiver escutando agora. Então não deixa de curtir, assinar, seguir, dar 5 estrelinhas, deixar um resenho, um comentário na plataforma que você estiver escutando esse episódio agora. E se você quiser comprovar que eu vi esse episódio até o final, deixe o seu comentário. 46:28 Com a palavra secreta da semana que é mistério. 46:34 RESUMIDO é produzido e apresentado por mim, Bruno Natal O roteiro é escrito por mim e pelo Agenor Neto O Cauê Marques co-edita a newsletter O Futuro Explicado e as redes sociais, que contam com animações do Peri Semmelmann e design do Felipe Araújo A edição e mixagem é feita pelo Hugo Rocha da Usina Sons A foto da capa é do Jorge Bispo E o tema original foi composto por Gustavo Silveira Sou o Bruno Natal, obrigado pela audiência e semana que vem tem mais RESUMIDO! Fechar 9 de dezembro de 2025 Este conteúdo está protegido por senha. Para vê-lo, digite sua senha abaixo. Senha: ← Os ovos da Gracyanne viralizam / IA confunde linguagem com inteligência / Guerra dos chips esquenta → Final de temporada! / Você não é dono nem da sua geladeira / CEOs de IA viram heróis / Controle o feed do seu Instagram