Blog
IA criativa x IA preditiva
Contato
A escassez de mão de obra e de habilidades, além de uma convulsão econômica, está deixando muitas organizações se perguntando: “O que posso fazer para tornar minha empresa mais eficiente e, ao mesmo tempo, manter (ou idealmente melhorar) a qualidade e a experiência do cliente/funcionário?” Muitas estão recorrendo à inteligência artificial (IA) para preencher essas lacunas e ajudar em processos de tomada de decisão mais eficazes.
Com a IA constantemente criando novas oportunidades, ela também levanta questões sobre a ética da tecnologia: imparcialidade, igualdade, privacidade, transparência, confiança e controle.
Neste artigo, nós analisaremos:
A IA responsável trata de abordar o processo de desenvolvimento de IA de um ponto de vista ético e legal. O objetivo é empregar o uso de IA com segurança, confiança e transparência. Isso protege você, garantindo que sua organização permaneça em conformidade e siga todas as leis e regulamentos aplicáveis; também garante que sua organização mantenha uma boa reputação. Os sistemas de IA devem tratar as pessoas, a segurança e o ambiente com os mais altos padrões em todos os momentos.
Uma boa IA é boa para o seu negócio. Isso inclui:
A automação inteligente (AI) combina automação robótica de processos (RPA), gerenciamento de processos de negócios (BPM) e IA para automatizar e simplificar processos de negócios. A IA é um fator-chave na automação inteligente, e é por isso que a IA responsável é tão imprescindível. A forma como você está treinando e adaptando sua iniciativa de AI afetará diretamente a reputação e a adesão da organização a leis e regulamentos.
Se você não adotar uma abordagem responsável para alavancar a IA, poderá sofrer penalidades legais, financeiras e de reputação. Os conjuntos de dados usados para treinar seus modelos de aprendizado de máquina (ML) podem introduzir viés em seu sistema de IA. Isso pode ser causado por dados defeituosos ou incompletos.
Se aspectos como a qualidade dos dados não forem considerados nos modelos de treinamento, isso pode resultar em um programa de IA tendencioso, que pode afetar pessoas e empresas. A adoção irresponsável de IA corre o risco de ter:
Crie sistemas de IA mais transparentes para aumentar a confiança do usuário final e proteger seus funcionários e sua organização contra repercussões negativas. Porque, no final das contas, se você estiver usando tecnologias como IA corretamente, terá a confiança necessária para expandir e desenvolver processos ainda melhores em toda a empresa.
Na próxima seção, mostraremos algumas práticas recomendadas e ferramentas para ajudar você a implementar padrões de IA responsáveis.
Além das práticas recomendadas gerais para implementar qualquer novo sistema de software em suas unidades de negócios, vejamos algumas abordagens importantes para garantir a ética da IA.
Antes de implementar a IA em suas práticas de negócios do mundo real, comece com:
Antes de implementar tecnologias emergentes, como a IA criativa, você deve desenvolver um plano estratégico. Nossa pesquisa de 2022 com 850 executivos seniores em todo o mundo revelou um reconhecimento generalizado da importância da IA responsável e da regulamentação de IA. No entanto, apenas 6% das organizações sentiram que tinham uma base de IA totalmente robusta e responsável. (Accenture, “Uma nova era de IA criativa para todos)
Aqui estão nossas principais dicas de como se preparar para a IA criativa:
Agora, vamos projetar princípios de IA responsáveis para sua estrutura. O monitoramento contínuo é fundamental para garantir que sua IA permaneça ética. Seguir um modelo de maturidade ou modelo operacional pode ajudar a projetar e implementar um sistema de IA seguro e confiável.
Na base, você deve construir sua IA a partir deste cinco princípios:
Um sistema de IA deve tratar todos com imparcialidade e sem preconceitos em relação ou contra determinados grupos de pessoas.
Por exemplo, quando um profissional de saúde usa IA para recomendar um tratamento médico com base nos sintomas de um paciente, a IA deve fazer a mesma recomendação para qualquer pessoa com esses sintomas, independentemente de sua situação financeira ou profissional.
Os sistemas de tomada de decisão de IA correm o risco de viés de parcialidade quando baseados em histórico de dados e impacto humano. Você deve garantir que, depois de treinar seus modelos de ML em dados existentes coletados do mundo real, sejam identificados os vieses problemáticos. Esses vieses podem ser baseados em etnia, gênero, religião, inclinação política, cultura etc., e não podem passar despercebidos no aprendizado da IA.
Na prática, estes são os fatores que você deve considerar em seus sistemas de IA:
Das informações comerciais à privacidade pessoal, os dados usados pela IA estão se tornando cada vez mais complexos. Os dados de treinamento podem ser confidenciais e, em alguns casos, importantes para o seu sistema de IA (por exemplo, detectores de câncer com base em exames anteriores de pacientes).
Seu sistema de IA precisa estar em conformidade com todas as leis e regulamentos aplicáveis à sua região e setor. No entanto, também devem considerar as expectativas sociais e individuais. Veja, em particular, a transparência de:
Para ter um modelo de IA eficaz, você precisa de insights diretos sobre como tudo em seu sistema funciona. Você deve saber exatamente como seu sistema de IA toma uma decisão, chamada de “IA explicável”. Isso ajuda a evitar erros ou vieses e também oferece suporte a qualquer expansão que você gostaria de fazer no futuro.
Por exemplo, se um banco usa IA para decidir se uma pessoa é apta para um empréstimo, os tomadores de decisão devem ser capazes de analisar os dados e ver exatamente como o sistema chegou a essa escolha e se algum viés inesperado estava presente.
A transparência mostrará a você:
Os desenvolvedores que projetam e implementam seu sistema de IA são responsáveis por qualquer ação ou decisão tomada. Estabeleça um órgão de revisão interno desde o início para dar aos seus sistemas e pessoas a orientação e supervisão necessárias para ajudar sua organização a prosperar. Inspire-se nos padrões do setor para ajudar você a desenvolver normas de responsabilidade e garantir que seus sistemas de IA não sejam a autoridade final em qualquer decisão.
Procure um modelo de treinamento de ML que permita:
A consistência é fundamental para um sistema de IA confiável e seguro. Ele deve ter o desempenho para o qual foi projetado originalmente e também responder com segurança em novas situações. A forma como seus sistemas se comportam e respondem a condições inesperadas depende da variedade de condições definidas durante as fases de projeto e teste.
Por exemplo, podem ocorrer discrepâncias quando o sistema apresenta um desempenho inferior para um determinado grupo demográfico. É por isso que testes e validação rigorosos são imprescindíveis. Os desenvolvedores precisam verificar como seu sistema de IA responde a casos extremos dentro de suas condições operacionais.
Também é importante observar que o desempenho do seu sistema de IA pode diminuir com o tempo. O monitoramento contínuo e o rastreamento de modelos são essenciais para manter o desempenho da IA confiável e seguro.
Na prática, seus desenvolvedores precisam:
Desde a finalidade do sistema até a forma como as pessoas interagem com ele, sua adoção de IA deve ter resultados benéficos e equitativos. Para alcançar esses benefícios, você precisa de uma estrutura de IA robusta e estratégica.
Com práticas de IA responsáveis, você pode:
Ignorar a ética e as práticas recomendadas de IA pode resultar em danos financeiros e reputacionais para sua organização. No entanto, com a IA responsável, sua organização pode expandir e evoluir todas as suas operações.
No centro da IA responsável estão cinco princípios fundamentais: imparcialidade e inclusão, privacidade e segurança, transparência, responsabilização e confiabilidade e segurança. A manutenção desses princípios requer modelos claros de ML e IA, validação rigorosa de dados, sistemas de IA explicáveis, estratégias de mitigação de vieses, medidas de segurança robustas e monitoramento e validação contínuos.
A IA responsável não é apenas um imperativo moral, é uma necessidade estratégica para as organizações que navegam pelas complexidades, e pelos benefícios, de um sistema de IA. Conforme você abraça o poder transformador da IA, faça isso com um compromisso com a inovação responsável, garantindo que a tecnologia sirva como uma força para o bem em nosso mundo interconectado.
Baixe nosso relatório do Gartner®: um guia de um CTO para o cenário da tecnologia de IA criativa
Se o YouTube está bloqueado na sua rede você não vai poder visualizar o vídeo nesta página. Nesse caso, use outro dispositivo. Ao clicar em play no vídeo serão definidos cookies de terceiros do YouTube. Por favor, leia nossa Política de Cookies para mais informações.