Deu Tilt
Deu Tilt

Deu Tilt

UOL

Overview
Episodes

Details

Podcast sobre tecnologia para os humanos por trás das máquinas.

Recent Episodes

O ‘novo momento DeepSeek’ e o dilema da IA: quem paga para robô ser treinado no Brasil?
DEC 9, 2025
O ‘novo momento DeepSeek’ e o dilema da IA: quem paga para robô ser treinado no Brasil?
Em entrevista ao Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, Pedro Henrique Ramos, diretor-executivo do Reglab, foi taxativo: o Brasil caminha para ser o mais restritivo do mundo no treinamento de inteligência artificial, o que afetará o PIB do país. Segundo levantamento do think tank especializado em políticas públicas em tecnologia, o país pode perder R$ 21 bilhões se aprovar uma legislação que impeça IAs generativas de serem treinadas com obras protegidas por direitos autorais. O mesmo vale para inferências. Mas existem três caminhos, diz Ramos: liberar amplamente o uso do que está aberto na internet; criar um regime intermediário, com possibilidade de fazer pedidos de retirada de obras; adotar uma linha mais dura, em que nada é usado sem pagamento. Só que a internet é global, e as leis, nacionais, diz. Se o Brasil aprovar uma proposta mais restritiva, empresas podem simplesmente levar seus data centers para outros lugares. Ramos não esconde que a liberação de informações protegidas para treinar IA é algo que beneficia as big tech norte-americanas, como Google e Meta, mas diz que a disputa, no fim das contas, é entre grandes conglomerados empresariais: quem treina modelos de IA versus quem detém direitos autorais. E os produtores de conteúdo podem até se dar bem com a IA, já que, segundo a pesquisa Futuros Criativos, a nova tecnologia pode até reduzir os royalties das indústrias criativas, mas, por outro lado, tende a elevar sua produtividade. Já Luca Schirru, advogado e consultor em direitos autorais, afirma que a regulação do uso de dados para o treinamento da IA depende de como, por quem e para quê eles estão sendo minerados. Há uma diferença entre a utilização de dados para pesquisas ou por instituições públicas e sem fins lucrativos e por grandes empresas de mercado, que geram lucro a partir desses dados ou oferecem obras que podem substituir o trabalho humano. Segundo ele, é possível combinar diferentes caminhos de remuneração pelo uso de dados e conteúdos criativos por grandes empresas, como autorizar certas formas de treinamento e, ao mesmo tempo, cobrar o pagamento apenas das big techs que lucram com a IA generativa. Startups, modelos abertos e projetos de pesquisa poderiam se beneficiar de modelos mais flexíveis. Schirru ressalta que ferramentas como a ProRata.AI já apontam para a possibilidade de identificar quais obras entraram no treinamento, criando uma base para modelos de remuneração mais transparentes. Para equilibrar os interesses, ele sugere mecanismos que vão além do licenciamento tradicional: taxas sobre receita, fundos para autores e veículos de imprensa, ou investimentos em capacitação. O objetivo é garantir sustentabilidade para quem cria, sem travar a inovação. Do nada, a China lançou um app que ultrapassou o Gemini, o ChatGPT e até o DeepSeek em número de acessos. Em uma semana, o Qwen bateu 10 milhões de downloads. Ele é do Alibaba, que os brasileiros conhecem pelo AliExpress, mas que também tem uma das maiores infraestruturas de computação em nuvem do mundo. O Qwen começou como um modelo de IA aberto, usado por empresas que preferem aproveitar uma base em vez de gastar tempo e dinheiro na fase de pré-treinamento da IA. Agora virou chatbot e, com o app, o Alibaba decidiu se apresentar ao consumidor global como uma companhia AI first, no melhor estilo Google. E tem mais: a empresa também lançou o Quark, um assistente pessoal de IA combinado com navegador. A mensagem é clara: o Alibaba não quer só disputar mercado, mas tomar a liderança na corrida tecnológica.  
play-circle icon
54 MIN
Giselle Beiguelman discute: arte com IA é arte? ‘Censura algorítmica’ e obsolescência desprogramada
DEC 2, 2025
Giselle Beiguelman discute: arte com IA é arte? ‘Censura algorítmica’ e obsolescência desprogramada
Em entrevista a Deu Tilt, a artista visual, professora universitária e pesquisadora Giselle Beiguelman desmonta a ideia de que existe “arte criada pela máquina”. Para ela, o que chamamos de arte com IA é sempre arte com tecnologia, feita com a máquina, e não por ela. A grande novidade, inédita na história da arte, é que a tecnologia agora toma decisões durante o processo criativo. Nenhum artista controla 100% seus instrumentos, mas a IA interfere nos rumos da criação. Quando alguém pergunta se arte com IA “é arte”, Giselle responde olhando para o processo. O prompt não é só descrição; é uma experiência que tensiona os meios de produção. A IA muda o campo artístico ao mesmo tempo em que amplia e ameaça. Copiar ficou fácil, criar continua difícil. No lugar do desvio de padrão, que sempre foi motor da arte, o risco é ficarmos presos numa jaula cibernética onde tudo é retroalimentado pelos mesmos arquivos hegemônicos. Arquivos inexistentes podem ser apontados, mas referências que fogem do padrão podem desaparecer. O repertório coletivo corre o risco de se diluir. Para Giselle, o debate gira em torno da democratização do acesso à arte, mas também em torno de quem controla os meios para criar –afinal, os melhores recursos já são pagos. A cultura do padrão reforça repertórios hegemônicos, e os maiores problemas da IA continuam sendo humanos: a reprodução de nossos vieses e modelos culturais.
play-circle icon
52 MIN
Veo 3 x Sora 2; IA derruba a produtividade; Grokipedia, a Wikipédia do Musk; As startups da fé
NOV 25, 2025
Veo 3 x Sora 2; IA derruba a produtividade; Grokipedia, a Wikipédia do Musk; As startups da fé
Veo 3 ou Sora 2? Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, colocou frente a frente as duas ferramentas que estão puxando a nova onda de vídeos hiper-realistas feitos por IA. Aposta do Google, o Veo 3 funciona integrado ao Gemini: você escreve um prompt e recebe um vídeo de até 8 segundos. Já o Sora 2, da OpenAI, parece um rival da Meta: cria vídeos de 10 segundos em uma rede social disponível só nos Estados Unidos e para convidados. O desafio é simples: submeter pedidos diretos, do jeito que as pessoas fariam, sem engenharia de prompt ou detalhes técnicos e ver qual plataforma vai melhor. Além do embate, há uma discussão sobre os riscos dos vídeos realistas. O uso indevido da imagem de figuras públicas em situações vexatórias, ofensivas ou completamente contrárias à sua história já provocou saias justas. O Sora 2 foi usado para criar vídeos racistas de Martin Luther King, removidos só depois de pedidos formais da família. O mesmo ocorreu com o ator Bryan Cranston, o Walter White de “Breaking Bad”. Tudo isso levanta uma pergunta que ninguém na indústria parece disposto a responder: por que a plataforma não pede autorização prévia para usar a imagem dessas pessoas? A IA prometeu tudo em relação ao aumento da produtividade no trabalho, mas a entrega ainda está longe das expectativas. Na corrida para não ficar para trás, muita empresa adota IA movida por FOMO (medo de ficar por fora, na sigla em inglês), não por estratégia. O resultado aparece nos números: 95% dos projetos que adotaram a IA com o objetivo de aumentar a produtividade não trazem o retorno esperado. Helton Simões Gomes e Diogo Cortiz contam como a IA tem matado a produtividade do trabalho, diferente do que se esperava. Um estudo do Stanford Media Lab mostra que o problema tem nome: “work slop”. Sabe quando a pessoa delega para a IA algo que ela mesma deveria fazer, mas a IA entrega um trabalho incompleto, cheio de erros e que precisa ser revisado por outra pessoa? Pois é: “work slop”. Isso derruba a produtividade de equipes inteiras, do gerentes aos subordinados. E os efeitos financeiros são claros: funcionários gastam, em média, duas horas para refazer tarefas mal feitas pela IA. Os custos invisíveis podem chegar a US$ 9 milhões por ano, segundo estimativas de pesquisadores. E aí está o desafio central: como extrair o melhor da IA e dos humanos, sem que um atrapalhe o outro? A birra de Elon Musk com a Wikipedia, apelidada por ele de ‘wokepedia’, levou o magnata a criar sua própria enciclopédia: a Grokipedia. Deu Tilt conta qual a diferença entre as duas: do número de artigos (Wikipédia tem mais de 7 milhões, a Grokipedia tem cerca de 800 mil verbetes, todos produzidos pela própria IA) à produção (na Wikipedia, os textos são escritos e revisados de forma colaborativa por uma comunidade enorme de voluntários, e na Grokipedia não há transparência sobre as fontes). Se Musk queria evitar viés e politização, o resultado foi outro: no verbete sobre o “Black Lives Matter”, por exemplo, o Grok acusa o movimento de defender o fim da família nuclear, o que elevaria a criminalidade nas comunidades negras. A própria organização, em seu site, diz defender diferentes modelos de família, não o fim da estrutura familiar. Há outros problemas na Grokipedia, como fontes majoritariamente dos Estados Unidos,verbetes com vieses racistas, transfóbicos e com teorias conspiratórias. Diante disso, ficam as perguntas: o que pensaria Diderot, um dos criadores da enciclopédia moderna, ao se deparar com a Grokipedia? E mais: por que Musk resolveu investir numa enciclopédia? E outra: se hoje a Wikipedia é fonte crucial para IAs, o que acontece se esses modelos passarem a ser alimentados pelo Grok no futuro?
play-circle icon
51 MIN
Atlas x Comet; Uber faz motorista treinar IA; O segredo de Veo3 e Sora2; Pegadinhas de IA
NOV 18, 2025
Atlas x Comet; Uber faz motorista treinar IA; O segredo de Veo3 e Sora2; Pegadinhas de IA
Atlas ou Comet? Quem vence a batalha dos novos navegadores de IA? O Atlas, da OpenAI, é basicamente um navegador turbinado com recursos de inteligência artificial, uma estratégia da dona do ChatGPT para bater de frente com o Google Chrome, que domina mais de 70% do mercado. Já o Comet é uma aposta menor, mas ousada da Perplexity –a companhia chegou a fazer proposta de compra pelo Chrome. Para descobrir qual dos dois browsers se saem melhor, Helton Simões Gomes e Diogo Cortiz colocaram um contra o outro nessa batalha pelo futuro da internet no novo episódio de Deu Tilt, o podcast do UOL para humanos por trás das máquinas. A Uber criou uma nova modalidade de trabalho: e, se em vez de apenas dirigir, os motoristas também treinassem inteligências artificiais? Enquanto estão parados, eles fariam microtarefas, pequenos trabalhos para ensinar robôs sobre o nosso mundo. Ainda é um teste e só funciona em alguns países. Mas o argumento é sedutor: oferecer renda extra. Na prática, o objetivo é para lá de estratégico: a Uber está de olho no promissor mercado de rotulagem de dados para treinar modelos de IA. O negócio já existe, tanto que a plataforma mais popular é o Mechanical Turk, da Amazon e o termo “microtarefa” é de 2008. Hoje, porém, diversas pessoas dependem exclusivamente dessas plataformas. As tarefas variam: rotular mensagens, tirar fotos de situações específicas, descrever imagens, gravar algumas palavras. Como o pagamento é baixo, os trabalhadores passam horas diante da tela, da mesma forma que os profissionais da Uber passam horas dirigindo. Em que momento, os motoristas encontrarão tempo para as microtarefas? O que não nos contam sobre Veo3, do Google, e Sora2, da OpenAI, as mais avançadas IAs de vídeo? Ficamos hipnotizados pela qualidade do resultado dos vídeos gerados por essas ferramentas, mas não sabemos que a IA está, na verdade, aprendendo sobre o nosso mundo. Vamos do começo: a IA possui uma grande grande limitação. Veja os chatbots: seus modelos de linguagem aprenderam a conversar a partir de textos, mas nunca experimentaram nada no mundo do que é descrito apenas em palavras. Para criar vídeos, essa falha ficaria evidente. Mas os desenvolvedores criaram uma alternativa: uma espécie de visão de máquina, permitindo que a IA “leia” o mundo. Helton Simões Gomes e Diogo Cortiz conversam sobre como estamos ensinando, sem querer, Veo3 e Sora2 a aprender como nosso mundo funciona: leis da física, comportamento das coisas, propriedades dos materiais. O que vai surgir da junção entre modelos de linguagem e IAs que experimentam o mundo ainda é imprevisível. Talvez robôs que agem sozinhos? Encanadores bombadões, faxineiras gatas ou mendigos aparecem em casa. O susto de quem deixou uma criança sozinha ou de um marido ou esposa ciumentos é imediato. A inteligência artificial elevou o nível das pegadinhas na internet, com vídeos hiperrealistas que deixariam o saudoso Ivo Holanda no chinelo. Era para ser só uma trolagem envolvendo traição ou invasão de domicílio. Mas têm provocado impacto concreto à medida que a polícia tem sido acionada para resolver chamados. No novo episódio de Deu Tilt, o podcast do UOL para humanos por trás das máquinas, Diogo Cortiz e Helton Simões Gomes explicam como as pegadinhas com IA miraram nas gracinhas de casal, mas acertaram na discussão sobre a morte do “ver para crer”. Talvez antes mesmo de qualquer futuro distópico em que máquinas dominam seres humanos, vamos encarar outro colapso: e se a IA nos impedir de compreender o que é a realidade?
play-circle icon
54 MIN