Início Tecnologia Esperança, Hype ou Terror? O diretor de ‘The AI ​​Doc’, Charlie Tyrell,...

Esperança, Hype ou Terror? O diretor de ‘The AI ​​Doc’, Charlie Tyrell, questiona o que vem a seguir

24
0

Eu escrevo (e penso) sobre IA para viver. Em qualquer período de 30 minutos, hesito entre me preocupar com a possibilidade de a IA destruir tudo o que conheço e amo e acreditar – ou pelo menos querer acreditar – que ela poderá mudar a humanidade para melhor.

O pavor se transforma em otimismo, que se transforma em ambivalência, que então se transforma novamente em cinismo induzido pelo pavor. Enxágue e repita. Meu Deus, meu sistema nervoso central precisa de uma pausa.

Esse debate está no centro de um novo documentário que chega aos cinemas hoje, 27 de março. The AI ​​Doc: Ou como me tornei um apocalotimista (104 minutos) estreou pela primeira vez em Sundance em janeiro e posteriormente exibido no SXSW. O filme explora a indústria selvagem e o mundo alucinante da inteligência artificial. É preciso um olhar inabalável sobre a tensão entre aqueles que se sentem extremamente condenados e aqueles que se sentem extremamente optimistas em relação ao boom da IA, e como dar sentido a essa polaridade.

Atlas de IA

Os dois diretores do documentário, Daniel Roher e Charlie Tyrellseriam futuros pais durante o processo de filmagem, seus filhos nasceram com uma semana de diferença. Através das lentes da paternidade, o documentário faz uso de centenas de entrevistas, tanto na tela quanto fora dela, com os principais especialistas em tecnologia e risco em todo o mundo – desde o CEO da OpenAI, Sam Altman, até Dan Hendrycksdiretor executivo da Centro de Segurança de IA – para explorar se a IA é a maior ameaça existencial que já conhecemos, ou a tecnologia mais singularmente excitante que já conhecemos, ou algo totalmente diferente.

Roher ganhou o Oscar de Melhor Documentário por Navalny (2022)e Tyrell estava na lista do Oscar por seu curta documentário Fitas pornôs do meu pai morto (2018). O AI Doc também foi produzido pelas equipes por trás de Everything Everywhere All at Once (Daniel Kwan e Jonathan Wang) e Navalny (Shane Boris e Diane Becker).

Falei com Tyrell esta semana, antes do lançamento do documentário nos cinemas, para discutir a paternidade, os dois anos e meio de produção deste documentário, inspirações, objetivos e o futuro da sociedade com IA.


A entrevista abaixo foi editada para maior extensão e clareza.

Eu sei que você já fez documentários antes, mas como você se preparou, passando de um pequeno documentário profundamente pessoal para um documentário como este, que realmente olha para o que há de maior e mais impactante que é a IA?
Tyrell: Quero dizer, não houve preparação. Daniel Roher foi quem me trouxe para este filme, e não me lembro quantos filmes ele fez antes, mas mais do que eu. E era apenas confiança um no outro. E não apenas em Daniel Roher, mas no resto da equipe para passarmos por isso juntos e tipo: “Não precisamos ter um plano, faremos o plano à medida que avançamos”.

Então, como eu naveguei? Apenas com fé nas pessoas ao meu redor. Vindo de um curta pessoal anterior a esse, ainda tentei aplicar muitas das minhas sensibilidades pessoais e ponto de vista nessa história. É através das lentes da paternidade, e me tornei pai na mesma semana que Daniel. Então, muitos dos sentimentos dele eram meus sentimentos e vice-versa.

Fiquei realmente emocionado com as lentes da paternidade. Foi muito carinhoso e me pegou um pouco de surpresa. Foi um processo orgânico ou você sabia que, junto com Daniel, seria o enquadramento?
Tyrell: Aconteceu de forma bastante orgânica, mas também no início do processo. Acho que foi na nossa primeira ou segunda reunião de grupo com Dan Kwan, Jonathan Wang e Shane Boris que isso foi apresentado como uma ideia de como poderíamos fazer isso. E começamos a entretê-lo desde o início.

E você disse que foi Daniel quem trouxe você. Você acha que sua futura paternidade compartilhada fez parte disso?
Tyrel: Definitivamente. Não me lembro se esse projeto surgiu antes ou depois de sabermos dos bebês um do outro chegando. Mas definitivamente. Eu me inclino para o acaso e acredito que Daniel também o faz. Então foi bom ter um companheiro quando você sabe que vai passar por algo como um filme gigante, por um tópico gigante como IA. E saber que, “OK, vou passar por outra grande coisa na minha vida: ter um filho” e, “OK, outra pessoa vai compartilhar um pouco dessa experiência”. Foi tão reconfortante saber disso.

Claro, você tem o pânico de “como vou conseguir fazer meu trabalho com uma criança?” E só saber que isso não seria feito sozinho me deu uma grande sensação de segurança. E, na verdade, meu filho aparece no filme algumas vezes. Existem alguns quadros e momentos escondidos ali.

Numa entrevista à CBS, você disse que o objetivo era tornar a IA mais democrática. Quem você acha que realmente se beneficia com o atual boom da IA ​​e quem fica de fora?
Tyrell: Bem, uma das primeiras pessoas a se beneficiar será a indústria de tecnologia, e essas avaliações que estão acontecendo para suas empresas em valores, em alguns casos, absurdos e inéditos. Está tornando muitas pessoas muito ricas e muitas pessoas muito poderosas. Então esse é um dos primeiros que se beneficia.

E há também as pessoas que não estão sendo beneficiadas. Falando aos data centers, as pessoas estão perdendo alguns dos recursos de que necessitam, como a água. Algumas pessoas estão sendo deslocadas de suas casas por causa desses data centers. Estou falando principalmente apenas com o mundo ocidental, com a América do Norte e com os Estados Unidos especificamente. É complicado e às vezes opressor seguir o back-end dessa tecnologia … Neste campo, existem espaços no mundo onde há indivíduos olhando para telas e votando positivamente e negativamente nos dados [to train AI]e algumas delas são um material horrível de se olhar. Ainda há um ser humano avaliando o que está acontecendo [data sets] e ser exposto, em alguns casos, a materiais e meios de comunicação horríveis – e não ser muito bem pago para isso.

Houve alguma perspectiva que mais se destacou para você durante o processo de realização deste documentário? Houve uma pessoa em particular que realmente tinha muito a dizer e que realmente ficou com você?
Tyrell: O filme, incluindo a experiência de fazê-lo, foi realmente um coro de vozes. Mas uma que realmente se destacou para mim, de cara, foi Deb Raji [a computer scientist and researcher at UC Berkeley, specializing in algorithmic auditing]. Ela foi realmente capaz de falar sobre a forma como essa tecnologia é implantada, no ritmo em que está, sem a regulamentação que talvez devesse ter. Neste momento, hoje, há pessoas que estão a tornar-se vítimas por causa das falhas da tecnologia. Há pessoas que acabam passando o fim de semana na prisão porque um software de reconhecimento facial alimentado por IA identificou incorretamente alguém e o confundiu com alguém que cometeu um crime.

À medida que esta tecnologia é implementada em coisas como hipotecas e empréstimos e naquele tipo de coisas burocráticas que as pessoas precisam para viver – ela precisa de correr bem e correr bem, porque as suas vidas, o seu bem-estar e a sua estabilidade dependem disso. Esses sistemas não são um ser humano com algo parecido com compaixão. São sistemas binários que acabarão por dar um sim/não, sem muito espaço para resistência, porque consideramos isso como dados e verdade absoluta. Então as pessoas estão sendo impactadas por isso.

Daniel conduziu a entrevista [with Deb Raji]e fui ampliado mais como observador, mas fiquei realmente surpreso com muito do que ela disse, porque me tirou do tipo de bolha em que vivo. E uma coisa que ela diz é que se você sente que os impactos negativos dessas tecnologias não irão afetá-lo por causa de seu lugar na vida ou de seu privilégio, é apenas uma questão de tempo. Porque isso simplesmente aumenta.

Às vezes me senti muito visto durante esse documentário porque diariamente eu penso: “A IA vai estragar tudo”. E então eu digo: “Não, vai ficar tudo bem. Vamos todos ficar bem.” A humanidade já passou por mudanças realmente cruciais antes, e nos saímos bem. Houve algum momento em que sua perspectiva sobre IA oscilava de um lado para outro? Quantas vezes isso aconteceu?
Tyrell: O tempo todo e continua até agora. E essa é a realidade desta tecnologia. São as duas coisas ao mesmo tempo. Uma das mensagens do filme é exatamente que ele terá essas capacidades incríveis, bem como essas capacidades horríveis. E para exercê-lo, precisamos reconhecer e compreender que é isso que vai ser. Não podemos acreditar que só vai ser bom ou que só vai ser ruim, porque sempre serão as duas coisas.

Havia um público-alvo para isso? Porque vivo e respiro IA e penso nisso o dia todo, todos os dias, mas adorei esse documentário e ele me ensinou coisas. Você fez isso com a abordagem de que isso seria mais para pessoas que têm uma vaga ideia do que é IA ou era para todos?
Tyrell: O que estávamos buscando aqui era uma espécie de introdução, um primeiro contato com a tecnologia. E com isso, poderíamos dizer que o público era composto por pessoas que talvez não estivessem interessadas ou dispostas a se envolver com esta tecnologia ou esta paisagem – pessoas que talvez estivessem mais satisfeitas em ignorá-las. Queríamos fazer um filme divertido que fosse envolvente, mas também informativo. É um tema muito opressor. Pessoalmente, acho que quando estou sobrecarregado de informações, tenho vontade de desligar e desviar o olhar. Tipo, não deixa eu ter outro assunto para resolver na minha vida, né? Essa é a natureza humana normal para muitas pessoas.

Queríamos fazer o filme de forma que fosse acessível e, de certa forma, um começo para a maioria das pessoas, um início de conversa para as pessoas. E com isso, não quero dizer que estamos sendo super redutores ou simplistas demais, mas foi feito para o público em geral. Foi feito para atender a maioria das pessoas onde elas estão quando se trata dessa tecnologia.

Há alguma pergunta sobre IA que você gostaria que mais pessoas fizessem?
Tyrell: Em termos de pessoas que o utilizam, espero que haja mais esclarecimento sobre o uso de energia para criar uma imagem boba de si mesmo em um cenário e ambiente diferente. Eu gostaria que houvesse mais transparência ou métricas sobre: ​​”Para fazer esta imagem, é a quantidade de água que você usou, ou a quantidade de energia que você usou.” E se as pessoas vissem isso, talvez ainda tentassem obter a imagem exata e perfeita deles como um centauro ou algo assim, mas talvez em vez de tentar 50 tentativas para encontrar a imagem certa, eles terminariam com algumas. Isso seria algo que eu gostaria de ver incorporado em algumas das interfaces dos modelos.



fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui