Início Tecnologia Corrigindo falhas de IA: três mudanças que as empresas devem fazer agora

Corrigindo falhas de IA: três mudanças que as empresas devem fazer agora

42
0

Recente relatórios sobre as taxas de fracasso de projetos de IA levantaram questões desconfortáveis ​​para organizações que investem pesadamente em IA. Grande parte da discussão centrou-se em factores técnicos como a precisão do modelo e a qualidade dos dados, mas depois de observar o lançamento de dezenas de iniciativas de IA, reparei que as maiores oportunidades de melhoria são muitas vezes culturais e não técnicas.

Projetos internos com dificuldades tendem a compartilhar problemas comuns. Por exemplo, as equipes de engenharia constroem modelos que os gerentes de produto não sabem usar. Os cientistas de dados constroem protótipos que as equipes de operações lutam para manter. E os aplicativos de IA permanecem sem uso porque as pessoas para quem foram criados não estavam envolvidos na decisão do que “útil” realmente significava.

Em contraste, as organizações que alcançam valor significativo com a IA descobriram como criar o tipo certo de colaboração entre departamentos e estabeleceram responsabilidade partilhada pelos resultados. A tecnologia é importante, mas a prontidão organizacional é igualmente importante.

Aqui estão três práticas que observei que abordam as barreiras culturais e organizacionais que podem impedir o sucesso da IA.

Expanda a alfabetização em IA além da engenharia

Quando apenas os engenheiros entendem como um sistema de IA funciona e do que ele é capaz, a colaboração é interrompida. Os gerentes de produto não podem avaliar compensações que não entendem. Os designers não podem criar interfaces para capacidades que não conseguem articular. Os analistas não conseguem validar resultados que não conseguem interpretar.

A solução não é tornar todos cientistas de dados. Está ajudando cada função a entender como a IA se aplica ao seu trabalho específico. Os gerentes de produto precisam compreender quais tipos de conteúdo gerado, previsões ou recomendações são realistas, dados os dados disponíveis. Os designers precisam entender o que a IA pode realmente fazer para que possam projetar recursos que os usuários acharão úteis. Os analistas precisam saber quais resultados de IA exigem validação humana e quais são confiáveis.

Quando as equipes compartilham esse vocabulário de trabalho, a IA deixa de ser algo que acontece no departamento de engenharia e se torna uma ferramenta que toda a organização pode usar de forma eficaz.

Estabeleça regras claras para a autonomia da IA

O segundo desafio envolve saber onde a IA pode agir por conta própria e onde é necessária a aprovação humana. Muitas organizações adotam padrões extremos, seja gargalando todas as decisões de IA por meio de revisão humana ou permitindo que os sistemas de IA operem sem barreiras.

O que é necessário é um quadro claro que defina onde e como a IA pode agir de forma autónoma. Isso significa estabelecer regras antecipadamente: a IA pode aprovar alterações rotineiras na configuração? Pode recomendar atualizações de esquema, mas não implementá-las? Ele pode implantar código em ambientes de teste, mas não em produção?

Estas regras devem incluir três elementos: auditabilidade (você consegue rastrear como a IA tomou sua decisão?), reprodutibilidade (você pode recriar o caminho de decisão?) e observabilidade (as equipes podem monitorar o comportamento da IA ​​conforme ele acontece?). Sem essa estrutura, ou você desacelera até o ponto em que a IA não oferece nenhuma vantagem, ou cria sistemas que tomam decisões que ninguém pode explicar ou controlar.

Crie manuais multifuncionais

A terceira etapa é codificar como diferentes equipes realmente trabalham com sistemas de IA. Quando cada departamento desenvolve sua própria abordagem, você obtém resultados inconsistentes e esforços redundantes.

Os manuais multifuncionais funcionam melhor quando as equipes os desenvolvem em conjunto, em vez de serem impostos de cima. Esses manuais respondem a perguntas concretas como: Como testamos as recomendações de IA antes de colocá-las em produção? Qual é o nosso procedimento alternativo quando uma implantação automatizada falha: ela é transferida para operadores humanos ou tenta primeiro uma abordagem diferente? Quem precisa estar envolvido quando anulamos uma decisão de IA? Como incorporamos feedback para melhorar o sistema?

O objetivo não é adicionar burocracia. É garantir que todos entendam como a IA se encaixa no trabalho existente e o que fazer quando os resultados não correspondem às expectativas.

Seguindo em frente

A excelência técnica em IA continua a ser importante, mas as empresas que indexam excessivamente o desempenho do modelo, ignorando os factores organizacionais, estão a preparar-se para desafios evitáveis. As implantações bem-sucedidas de IA que tenho visto tratam a transformação cultural e os fluxos de trabalho tão seriamente quanto a implementação técnica.

A questão não é se a sua tecnologia de IA é suficientemente sofisticada. É se a sua organização está pronta para trabalhar com isso.

Adi Polak é diretor de defesa e engenharia de experiência de desenvolvedor na Confluent.

Bem-vindo à comunidade VentureBeat!

Nosso programa de guest posts é onde especialistas técnicos compartilham insights e fornecem análises profundas, neutras e não adquiridas, sobre IA, infraestrutura de dados, segurança cibernética e outras tecnologias de ponta que moldam o futuro das empresas.

Leia mais do nosso programa de guest post – e confira nosso diretrizes se você estiver interessado em contribuir com um artigo de sua autoria!

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui