10 etapas para educar sua empresa sobre justiça de IA

Nó Fonte: 893723

Eleve sua tecnologia e estratégia de dados empresariais em Transformar 2021.


À medida que as empresas aplicam cada vez mais a inteligência artificial, elas devem abordar as preocupações com a confiança.

Aqui estão 10 intervenções práticas para as empresas empregarem para garantir a imparcialidade da IA. Eles incluem a criação de um Justiça AI fretamento e implementação de treinamento e teste.

As tecnologias baseadas em dados e a inteligência artificial (IA) estão impulsionando nosso mundo hoje - desde a previsão de onde a próxima variante do COVID-19 surgirá até nos ajudar a viajar na rota mais eficiente. Em muitos domínios, o público em geral confia muito em que os algoritmos que impulsionam essas experiências estão sendo desenvolvidos de maneira justa.

No entanto, essa confiança pode ser facilmente quebrada. Por exemplo, considere software de recrutamento que, devido a dados de treinamento não representativos, penaliza aplicativos que contenham a palavra "mulheres", ou um sistema de pontuação de crédito que perde a evidência do mundo real de merecimento de crédito e, portanto, como resultado, certos grupos obtêm limites de crédito mais baixos ou são negados empréstimos.

A realidade é que a tecnologia está se movendo mais rápido do que a educação e o treinamento sobre justiça em IA. As pessoas que treinam, desenvolvem, implementam e comercializam essas experiências baseadas em dados muitas vezes desconhecem as implicações de segunda ou terceira ordem de seu trabalho árduo.

Como parte do Fórum Econômico Mundial Conselho Futuro Global de Inteligência Artificial para a Humanidade, um coletivo de praticantes de IA, pesquisadores e consultores corporativos, propomos 10 intervenções práticas para as empresas empregarem para garantir a justiça da IA.

1. Atribuir responsabilidade pela educação em IA

Atribua um diretor de ética de IA (CAIO) que, junto com um conselho de ética multifuncional (incluindo representantes de ciência de dados, regulamentação, relações públicas, comunicações e RH), deve ser responsável por projetar e implementar atividades de educação de IA. O CAIO também deve ser o “ombudsman” para a equipe entrar em contato em caso de questões de justiça, bem como um porta-voz para a equipe não técnica. Idealmente, essa função deve se reportar diretamente ao CEO para visibilidade e implementação.

2. Defina justiça para sua organização

Desenvolva um modelo de estatuto de justiça de IA e pergunte todos os departamentos que estão usando ativamente a IA para concluí-lo em seu contexto. Isso é particularmente relevante para gerentes de linha de negócios e proprietários de produtos e serviços.

3. Garantir a justiça da IA ​​ao longo da cadeia de abastecimento

Exija que os fornecedores que você está usando e que possuem IA incorporada em seus produtos e serviços adquiridos - por exemplo, uma agência de recrutamento que pode usar IA para triagem de candidatos - também concluam um estatuto de justiça de IA e cumpram as políticas da empresa sobre justiça de IA. Isso é particularmente relevante para a função de compras e para fornecedores.

4. Educar a equipe e as partes interessadas por meio de treinamento e uma abordagem de "aprender fazendo"

Exigir treinamento e certificação obrigatórios para todos os funcionários nos princípios de justiça da IA ​​- semelhante a como os funcionários são obrigados a assinar códigos de conduta empresarial. Para a equipe técnica, forneça treinamento sobre como construir modelos que não violem os princípios de justiça. Todos os treinamentos devem aproveitar os insights das cartas de justiça da IA ​​para abordar diretamente os problemas enfrentados pela empresa. Certifique-se de que o conteúdo do curso seja revisado regularmente pelo conselho de ética.

5. Criar um plano de equidade de RH para as pessoas

Um plano de justiça de IA de RH deve incluir uma revisão anual por RH para avaliar a diversidade da equipe que trabalha em tecnologias baseadas em dados e IA, e uma revisão explícita e atualização das competências e habilidades que são anunciadas atualmente para o desenvolvimento de produtos relevantes para IA funções (como proprietário do produto, cientista de dados e engenheiro de dados) para garantir que a consciência de justiça seja parte da descrição do trabalho.

6. Teste a imparcialidade da IA ​​antes de qualquer lançamento de tecnologia

Exija que departamentos e fornecedores executem e publiquem internamente testes de resultados de justiça antes que qualquer algoritmo de IA seja ativado. Depois de saber quais grupos podem ser tratados injustamente devido ao enviesamento de dados, simule os usuários desse grupo e monitore os resultados. Isso pode ser usado por equipes de produto para iterar e melhorar seu produto ou serviço antes de ir ao ar. Ferramentas de código aberto, como Fairlearn da Microsoft, pode ajudar a fornecer a análise para um teste de resultado de justiça.

7. Comunique sua abordagem à justiça de IA

Configure sessões de aprendizagem de resultados de justiça com a equipe que atende ao público e o cliente para passar pelos testes de resultados de justiça para qualquer produto ou serviço novo ou atualizado. Isso é particularmente relevante para marketing e comunicações externas, bem como para equipes de atendimento ao cliente.

8. Dedique um item permanente nas reuniões do conselho aos processos de justiça de IA

Essa discussão deve incluir o relatório sobre o progresso e adesão, temas levantados pelo diretor de ética da IA ​​e conselho de ética, e os resultados dos testes de resultados de justiça de alta prioridade

9. Certifique-se de que a educação permaneça

Rastreie e relate regularmente a participação e a conclusão das atividades de imparcialidade da IA, juntamente com o impacto demonstrado do gerenciamento da justiça em termos de valor real de negócios. Forneça essas atualizações aos gerentes de departamento e de linha para se comunicarem com a equipe e reforçar que, ao tornar as plataformas de IA e o software mais justos, a organização é mais eficaz e produtiva.

10. Documente tudo

Documente sua abordagem à justiça de IA e comunique-a em treinamentos de funcionários e fornecedores e eventos de alto perfil, inclusive para clientes e investidores.

[Esta história apareceu originalmente em 10 etapas para educar sua empresa sobre justiça em IA | Fórum Econômico Mundial (weforum.org). Direitos autorais 2021.]

Nadjia Yousif é Diretor Administrativo e Sócio da Boston Consulting Group e co-lidera a prática de Instituições Financeiras para o Reino Unido, Holanda e Bélgica.

Mark Minevich é Presidente de Política de Inteligência Artificial no Centro Internacional de Pesquisa em Inteligência Artificial sob os auspícios da UNESCO, Instituto Jozef Stefan.

VentureBeat

A missão da VentureBeat é ser uma praça da cidade digital para que os tomadores de decisões técnicas obtenham conhecimento sobre a tecnologia transformadora e façam transações. Nosso site oferece informações essenciais sobre tecnologias e estratégias de dados para orientá-lo à medida que lidera suas organizações. Convidamos você a se tornar um membro de nossa comunidade, para acessar:

  • informações atualizadas sobre os assuntos de seu interesse
  • nossos boletins
  • conteúdo de líder de pensamento fechado e acesso com desconto a nossos eventos premiados, como Transformar 2021: Saber mais
  • recursos de rede e muito mais

Torne-se um membro

Fonte: https://venturebeat.com/2021/06/11/10-steps-to-educate-your-company-on-ai-fairness/

Carimbo de hora:

Mais de AI - VentureBeat