Eu escrevo (e penso) sobre IA para viver. Em qualquer período de 30 minutos, hesito entre me preocupar com a possibilidade de a IA destruir tudo o que conheço e amo e acreditar – ou pelo menos querer acreditar – que ela poderá mudar a humanidade para melhor.
O pavor se transforma em otimismo, que se transforma em ambivalência, que então se transforma novamente em cinismo induzido pelo pavor. Enxágue e repita. Meu Deus, meu sistema nervoso central precisa de uma pausa.
Esse debate está no centro de um novo documentário que chega aos cinemas hoje, 27 de março. The AI Doc: Ou como me tornei um apocalotimista (104 minutos) estreou pela primeira vez em Sundance em janeiro e posteriormente exibido no SXSW. O filme explora a indústria selvagem e o mundo alucinante da inteligência artificial. É preciso um olhar inabalável sobre a tensão entre aqueles que se sentem extremamente condenados e aqueles que se sentem extremamente optimistas em relação ao boom da IA, e como dar sentido a essa polaridade.
Os dois diretores do documentário, Daniel Roher e Charlie Tyrellseriam futuros pais durante o processo de filmagem, seus filhos nasceram com uma semana de diferença. Através das lentes da paternidade, o documentário faz uso de centenas de entrevistas, tanto na tela quanto fora dela, com os principais especialistas em tecnologia e risco em todo o mundo – desde o CEO da OpenAI, Sam Altman, até Dan Hendrycksdiretor executivo da Centro de Segurança de IA – para explorar se a IA é a maior ameaça existencial que já conhecemos, ou a tecnologia mais singularmente excitante que já conhecemos, ou algo totalmente diferente.
Roher ganhou o Oscar de Melhor Documentário por Navalny (2022)e Tyrell estava na lista do Oscar por seu curta documentário Fitas pornôs do meu pai morto (2018). O AI Doc também foi produzido pelas equipes por trás de Everything Everywhere All at Once (Daniel Kwan e Jonathan Wang) e Navalny (Shane Boris e Diane Becker).
Falei com Tyrell esta semana, antes do lançamento do documentário nos cinemas, para discutir a paternidade, os dois anos e meio de produção deste documentário, inspirações, objetivos e o futuro da sociedade com IA.
A entrevista abaixo foi editada para maior extensão e clareza.
Eu sei que você já fez documentários antes, mas como você se preparou, passando de um pequeno documentário profundamente pessoal para um documentário como este, que realmente olha para o que há de maior e mais impactante que é a IA?
Tyrell: Quero dizer, não houve preparação. Daniel Roher foi quem me trouxe para este filme, e não me lembro quantos filmes ele fez antes, mas mais do que eu. E era apenas confiança um no outro. E não apenas em Daniel Roher, mas no resto da equipe para passarmos por isso juntos e tipo: “Não precisamos ter um plano, faremos o plano à medida que avançamos”.
Então, como eu naveguei? Apenas com fé nas pessoas ao meu redor. Vindo de um curta pessoal anterior a esse, ainda tentei aplicar muitas das minhas sensibilidades pessoais e ponto de vista nessa história. É através das lentes da paternidade, e me tornei pai na mesma semana que Daniel. Então, muitos dos sentimentos dele eram meus sentimentos e vice-versa.
Fiquei realmente emocionado com as lentes da paternidade. Foi muito carinhoso e me pegou um pouco de surpresa. Foi um processo orgânico ou você sabia que, junto com Daniel, seria o enquadramento?
Tyrell: Aconteceu de forma bastante orgânica, mas também no início do processo. Acho que foi na nossa primeira ou segunda reunião de grupo com Dan Kwan, Jonathan Wang e Shane Boris que isso foi apresentado como uma ideia de como poderíamos fazer isso. E começamos a entretê-lo desde o início.
E você disse que foi Daniel quem trouxe você. Você acha que sua futura paternidade compartilhada fez parte disso?
Tyrel: Definitivamente. Não me lembro se esse projeto surgiu antes ou depois de sabermos dos bebês um do outro chegando. Mas definitivamente. Eu me inclino para o acaso e acredito que Daniel também o faz. Então foi bom ter um companheiro quando você sabe que vai passar por algo como um filme gigante, por um tópico gigante como IA. E saber que, “OK, vou passar por outra grande coisa na minha vida: ter um filho” e, “OK, outra pessoa vai compartilhar um pouco dessa experiência”. Foi tão reconfortante saber disso.
Claro, você tem o pânico de “como vou conseguir fazer meu trabalho com uma criança?” E só saber que isso não seria feito sozinho me deu uma grande sensação de segurança. E, na verdade, meu filho aparece no filme algumas vezes. Existem alguns quadros e momentos escondidos ali.
Numa entrevista à CBS, você disse que o objetivo era tornar a IA mais democrática. Quem você acha que realmente se beneficia com o atual boom da IA e quem fica de fora?
Tyrell: Bem, uma das primeiras pessoas a se beneficiar será a indústria de tecnologia, e essas avaliações que estão acontecendo para suas empresas em valores, em alguns casos, absurdos e inéditos. Está tornando muitas pessoas muito ricas e muitas pessoas muito poderosas. Então esse é um dos primeiros que se beneficia.
E há também as pessoas que não estão sendo beneficiadas. Falando aos data centers, as pessoas estão perdendo alguns dos recursos de que necessitam, como a água. Algumas pessoas estão sendo deslocadas de suas casas por causa desses data centers. Estou falando principalmente apenas com o mundo ocidental, com a América do Norte e com os Estados Unidos especificamente. É complicado e às vezes opressor seguir o back-end dessa tecnologia … Neste campo, existem espaços no mundo onde há indivíduos olhando para telas e votando positivamente e negativamente nos dados [to train AI]e algumas delas são um material horrível de se olhar. Ainda há um ser humano avaliando o que está acontecendo [data sets] e ser exposto, em alguns casos, a materiais e meios de comunicação horríveis – e não ser muito bem pago para isso.
Houve alguma perspectiva que mais se destacou para você durante o processo de realização deste documentário? Houve uma pessoa em particular que realmente tinha muito a dizer e que realmente ficou com você?
Tyrell: O filme, incluindo a experiência de fazê-lo, foi realmente um coro de vozes. Mas uma que realmente se destacou para mim, de cara, foi Deb Raji [a computer scientist and researcher at UC Berkeley, specializing in algorithmic auditing]. Ela foi realmente capaz de falar sobre a forma como essa tecnologia é implantada, no ritmo em que está, sem a regulamentação que talvez devesse ter. Neste momento, hoje, há pessoas que estão a tornar-se vítimas por causa das falhas da tecnologia. Há pessoas que acabam passando o fim de semana na prisão porque um software de reconhecimento facial alimentado por IA identificou incorretamente alguém e o confundiu com alguém que cometeu um crime.
À medida que esta tecnologia é implementada em coisas como hipotecas e empréstimos e naquele tipo de coisas burocráticas que as pessoas precisam para viver – ela precisa de correr bem e correr bem, porque as suas vidas, o seu bem-estar e a sua estabilidade dependem disso. Esses sistemas não são um ser humano com algo parecido com compaixão. São sistemas binários que acabarão por dar um sim/não, sem muito espaço para resistência, porque consideramos isso como dados e verdade absoluta. Então as pessoas estão sendo impactadas por isso.
Daniel conduziu a entrevista [with Deb Raji]e fui ampliado mais como observador, mas fiquei realmente surpreso com muito do que ela disse, porque me tirou do tipo de bolha em que vivo. E uma coisa que ela diz é que se você sente que os impactos negativos dessas tecnologias não irão afetá-lo por causa de seu lugar na vida ou de seu privilégio, é apenas uma questão de tempo. Porque isso simplesmente aumenta.
Às vezes me senti muito visto durante esse documentário porque diariamente eu penso: “A IA vai estragar tudo”. E então eu digo: “Não, vai ficar tudo bem. Vamos todos ficar bem.” A humanidade já passou por mudanças realmente cruciais antes, e nos saímos bem. Houve algum momento em que sua perspectiva sobre IA oscilava de um lado para outro? Quantas vezes isso aconteceu?
Tyrell: O tempo todo e continua até agora. E essa é a realidade desta tecnologia. São as duas coisas ao mesmo tempo. Uma das mensagens do filme é exatamente que ele terá essas capacidades incríveis, bem como essas capacidades horríveis. E para exercê-lo, precisamos reconhecer e compreender que é isso que vai ser. Não podemos acreditar que só vai ser bom ou que só vai ser ruim, porque sempre serão as duas coisas.
Havia um público-alvo para isso? Porque vivo e respiro IA e penso nisso o dia todo, todos os dias, mas adorei esse documentário e ele me ensinou coisas. Você fez isso com a abordagem de que isso seria mais para pessoas que têm uma vaga ideia do que é IA ou era para todos?
Tyrell: O que estávamos buscando aqui era uma espécie de introdução, um primeiro contato com a tecnologia. E com isso, poderíamos dizer que o público era composto por pessoas que talvez não estivessem interessadas ou dispostas a se envolver com esta tecnologia ou esta paisagem – pessoas que talvez estivessem mais satisfeitas em ignorá-las. Queríamos fazer um filme divertido que fosse envolvente, mas também informativo. É um tema muito opressor. Pessoalmente, acho que quando estou sobrecarregado de informações, tenho vontade de desligar e desviar o olhar. Tipo, não deixa eu ter outro assunto para resolver na minha vida, né? Essa é a natureza humana normal para muitas pessoas.
Queríamos fazer o filme de forma que fosse acessível e, de certa forma, um começo para a maioria das pessoas, um início de conversa para as pessoas. E com isso, não quero dizer que estamos sendo super redutores ou simplistas demais, mas foi feito para o público em geral. Foi feito para atender a maioria das pessoas onde elas estão quando se trata dessa tecnologia.
Há alguma pergunta sobre IA que você gostaria que mais pessoas fizessem?
Tyrell: Em termos de pessoas que o utilizam, espero que haja mais esclarecimento sobre o uso de energia para criar uma imagem boba de si mesmo em um cenário e ambiente diferente. Eu gostaria que houvesse mais transparência ou métricas sobre: ”Para fazer esta imagem, é a quantidade de água que você usou, ou a quantidade de energia que você usou.” E se as pessoas vissem isso, talvez ainda tentassem obter a imagem exata e perfeita deles como um centauro ou algo assim, mas talvez em vez de tentar 50 tentativas para encontrar a imagem certa, eles terminariam com algumas. Isso seria algo que eu gostaria de ver incorporado em algumas das interfaces dos modelos.











