*Por Fernando Wolff
Estamos vivendo uma era de encantamento tecnológico. Hoje, com a Inteligência Artificial, podemos processar volumes imensos de dados, tomar decisões em tempo real e aprender com o comportamento humano, sendo uma nova revolução industrial. Em nosso dia a dia, essas ferramentas têm impactos positivos, como por exemplo, redução de custos, aumento de produtividade, previsibilidade, personalização de atendimento ao cliente, e muitas ideias que podem surgir de insights que antes não seriam possíveis somente com um olhar humano. A confiança na IA é um dos maiores desafios da atualidade no mundo inteiro.
Para se ter uma ideia, de acordo com um levantamento da consultoria global Edelman Trust Barometer, a percepção da população sobre a confiabilidade da IA varia muito entre os países. A Índia e China, por exemplo, lideram no ranking com mais de 70% de confiança, e os países como Estados Unidos e Alemanha apresentam níveis abaixo dos 40%. Já no Brasil, o nível de confiança está em 50%, mostrando que ainda temos um longo caminho a percorrer.
Mas por que ainda há tanta desconfiança da IA? Porque toda tecnologia carrega traços e vieses de quem a criou. Não existe algoritmo verdadeiramente neutro, e não há inteligência artificial sem relações humanas. A credibilidade da ferramenta não está apenas no código, mas também na ética de quem o escreve, na transparência de quem o implementa e na responsabilidade de quem utiliza.
E sim, as ferramentas de IA podem ser confiáveis desde que desenvolvidas de acordo com as mesmas regras que se exigem de qualquer pessoa que trabalha numa empresa ou instituição. Atualmente a IA não pode ser comparável com a capacidade de um ser humano, mas ela pode ser altamente confiável na execução de tarefas que seguem um padrão. Ainda é cedo para exigir da IA aplicada aos processos das empresas, o mesmo nível que já é uma realidade nos carros autônomos, por exemplo.
No dia a dia de uma empresa, são quase infinitas as situações que ocorrem e que exigem capacidade de raciocínio humano para uma tomada de decisão. Porém, muitas delas são de caráter repetitivo no sentido em que seguem padrões ou regras que podem ser ensinadas. E da mesma forma que essas se ensinam para uma pessoa, podem também ser ensinadas para um agente de IA que inclusive irá conseguir performar 10x melhor do que um humano, mas por agora só para essas tarefas com input e output previsíveis, por assim dizer. A pergunta que deveríamos nos fazer é: Estamos preparados para lidar com a responsabilidade que essa confiança exige? Estamos dispostos a exigir transparência dos fornecedores, a investir em educação para entender os limites da tecnologia e criar regulamentações que não engessam, mas que protegem">