Melhores práticas de governança de IA - DATAVERSITY

Melhores práticas de governança de IA – DATAVERSITY

Nó Fonte: 2492002
Sansoen Saengsakaorat / Shutterstock.com

A governação da IA ​​destina-se a promover o uso responsável da inteligência artificial para a melhoria da humanidade. A inteligência artificial provou ser bastante útil para concluir uma grande variedade de tarefas de forma rápida e eficiente. Infelizmente, também pode ser utilizado para apoiar comportamentos criminosos ou para criar e distribuir desinformação. A governança da IA ​​é um esforço para minimizar o uso de inteligência artificial para comportamentos criminosos e antiéticos.

Avanços recentes na inteligência artificial – ChatGPT, IA generativa, grandes modelos de linguagem – estimularam os líderes da indústria e do governo a reconhecerem a necessidade de diretrizes e regulamentações éticas ao usar a IA.     

O desenvolvimento de programas, regulamentos e diretrizes de governança de IA é um esforço para governar o desenvolvimento e as aplicações da tecnologia de IA. Os escritores, por exemplo, expressaram preocupações significativas sobre serem substituídos pela inteligência artificial, e o Writers Guild of America entrou em greve, exigindo aumento de salários e severas limitações no uso de IA para fins de escrita

A capacidade de criar imagens realistas (conhecidas como “falsificações profundas”) de indivíduos dizendo qualquer coisa desejada pela pessoa que controla a IA tornou-se uma preocupação para alguns políticos e grupos políticos. Exigências de resgate foram apresentadas depois que o sistema de computador de uma empresa foi infectado por malware gerado por IA ou após a recriação da voz de uma filha ao telefone, soluçando e contando aos pais ela foi sequestrada.

A governança da IA ​​lida com uma variedade de questões críticas, como privacidade, preconceitos embutidos, falsificação de identidade, roubo e fraude. É lamentável que leis e regulamentos sejam necessários para proteger as pessoas de indivíduos com ética fraca ou sem ética. As empresas devem fazer questão de se manterem atualizadas sobre as leis e regulamentos emergentes e garantir que a criação e implantação dos seus sistemas de IA estão em conformidade.

As organizações podem navegar preocupações éticas gerado pelo uso da inteligência artificial, aderindo a um sistema de melhores práticas de governança da IA, promovendo, por sua vez, seu uso responsável para a melhoria da humanidade.

Esforços governamentais para regular a inteligência artificial

Nos Estados Unidos, a liberdade de expressão pode ser confundida com a liberdade de mentir. A situação é desconcertante e torna difícil a criação de leis que restrinjam a desinformação. A inteligência artificial pode ser uma ferramenta extremamente útil para aumentar a fraude. 

Para desenvolver um sistema que proteja tanto os indivíduos como a liberdade de ser inovador, os governos devem tomar certas medidas. O primeiro passo envolve desenvolver uma compreensão dos problemas resultantes do uso antiético da inteligência artificial. Nos Estados Unidos, o Senado iniciado isso quando pediram a vários CEOs de tecnologia que participassem de nove sessões, com a primeira ocorrendo em 13 de setembro de 2023, para discutir as preocupações dos CEOs sobre IA.

Em 30 de outubro de 2023, o presidente Biden emitiu um ordem executiva em relação às preocupações com IA. Com a excepção de um mandato que exige que os “desenvolvedores dos sistemas de IA mais poderosos partilhem os resultados dos seus testes de segurança e outras informações críticas com o governo dos EUA”, a ordem executiva trata do “desenvolvimento” de normas e orientações. Neste momento, os Estados Unidos não desenvolveram quaisquer leis que controlem ou limitem o comportamento da inteligência artificial.  

A União Europeia (UE) foi uma das primeiras organizações governamentais a decidir que precisavam de regulamentos centrados na IA. O texto final da legislação proposta, o Lei da UE sobre IA, ainda está sendo desenvolvido após um acordo em 8 de dezembro de 2023. Eles optaram por desenvolver uma série de níveis de risco, com Sistemas de IA de Risco Inaceitável descritos como uma ameaça às pessoas (esses riscos serão banidos). Os riscos inaceitáveis ​​incluem:

  • A manipulação cognitiva, deliberada e comportamental de humanos ou grupos vulneráveis ​​específicos. Um exemplo seriam os brinquedos ativados por voz que incentivam as crianças a realizar comportamentos perigosos.
  • Pontuação social, o processo de classificação de pessoas com base em seu status socioeconômico, comportamento ou características pessoais.
  • O uso de sistemas de identificação biométrica remota e em tempo real.

A China não tem as mesmas considerações de liberdade de expressão que os governos democráticos apoiam. Como consequência, as suas prioridades em matéria de IA são diferentes. As medidas administrativas provisórias para serviços de inteligência artificial generativa foi implementado em 15 de agosto de 2023. Essas regulamentações de controle de IA exigem que as empresas que oferecem serviços generativos de IA concluam uma avaliação de segurança e um arquivamento de algoritmos. Eles também exigem que os provedores façam esforços para melhorar a precisão, a objetividade, a autenticidade e a confiabilidade do conteúdo gerado e exigem sua supervisão.

De um modo geral, os países que estão preocupados com a governação da IA ​​ainda estão no processo de desenvolvimento de leis e regulamentos apropriados.

Desenvolvendo melhores práticas de governança de IA em uma empresa

Os gestores empresariais devem considerar o impacto da IA ​​nos seus clientes e funcionários e implementar políticas para minimizar os riscos e evitar causar danos. Ao desenvolver um sistema de melhores práticas de governação da IA, as empresas podem apoiar a utilização responsável da inteligência artificial para o avanço da humanidade. 

As melhores práticas incluem:

Identifique materiais gerados por IA: Muitos governos estão a discutir a utilização obrigatória de marcas de água como forma de distinguir a arte gerada pela IA. Para organizações honestas e responsáveis, uma marca d'água oferece uma maneira fácil de comunicar que a arte foi criada pela IA, e não por um ser humano. O problema com as marcas d'água é que elas podem ser removidas facilmente; para aumentar o potencial de confusão e desinformação, marcas d'água podem ser adicionadas à arte criada por humanos. 

Organizações honestas e responsáveis ​​devem incluir uma marca d'água em qualquer arte gerada por IA. Os artigos escritos por IA devem colocar “AI gerada” no local onde normalmente se encontra o nome do autor, independentemente de a pessoa que iniciou o artigo querer reivindicar a autoria. (Fazer o contrário é simplesmente enganoso e enganoso.) 

Lide com preconceitos algorítmicos: Vieses e preconceitos não intencionais (ou plantados secretamente) que são incorporados aos algoritmos de uma IA podem ter um impacto nas práticas de contratação e no atendimento ao cliente de uma organização, usando dados demográficos como raça ou gênero.

Para determinar se uma IA é tendenciosa, faça um teste. Teste-o várias vezes em busca de preconceitos. Excel desenvolveu Ferramentas de análise de variações hipotéticas (Goal Seek and Scenario Manager) que realizará esses testes. Estas ferramentas são concebidas para promover a equidade e a justiça nos sistemas de IA. Eles garantem que a IA opere sem discriminação.

Segurança do cliente: Existem dois tipos básicos de informações de clientes que as empresas coletam. O primeiro é fornecido diretamente pelo cliente e inclui dados como endereço residencial e número de telefone, possivelmente uma data de nascimento. Todos concordam que esta informação deve ser segura e protegida.

A inteligência artificial pode ser combinada com a governança de dados para apoiar leis de privacidade e segurança de dados. Ao desenvolver um programa de governança de dados e regras de segurança apoiados por IA, uma empresa pode reduzir significativamente os riscos de dados roubados e explorados. 

A segunda forma de informação do cliente é comprado de outras organizações e inclui dados que vão desde padrões de compras online até atividades nas redes sociais. Este tipo de informação (referida como “dados de terceiros”) é coletada com a intenção de manipular uma pessoa para que faça uma compra. 

A maioria das pessoas não gosta da ideia de que suas preferências e necessidades pessoais sejam observadas e exploradas. As empresas honestas e responsáveis ​​não devem apoiar a utilização de inteligência artificial na manipulação de seres humanos, nem de dados de terceiros em geral.

Desenvolva uma filosofia de “não causar danos” ao usar IA: Existem empresas cujo único objectivo são os lucros a curto prazo e nas quais o engano é aceitável, desde que gere lucro. Mas você faria negócios com eles mais de uma vez? Na busca contínua por lucros, pode ser fácil perder de vista o panorama geral.

Quando a ética é incluída no modelo de negócios, desenvolve-se uma filosofia de não causar danos. Informações honestas e precisas raramente prejudicam a base de clientes de uma empresa, mas o engano ou o roubo normalmente resultam na perda de qualquer negócio futuro com esse cliente. Além disso, informações precisas agilizam a eficiência e o fluxo da sociedade em geral, promovendo, por sua vez, o avanço da humanidade. A introdução de desinformação pode resultar em caos e confusão. 

A inteligência artificial pode ser usada para promover o caos e a confusão, ou pode ser usada para fins de boa comunicação. 

Desenvolva um código de ética para a organização e para a IA: Um código de ética de governança de IA deve delinear o desejo e o compromisso da organização com o comportamento ético. Este código de ética pode incluir o compromisso de “usar inteligência artificial para fornecer informações precisas” e “a inteligência artificial não deve ser usada para criar ou distribuir informações erradas”.

A criação de um código de ética de governança de IA ajuda uma organização a estabelecer padrões claros de comportamento. Se disponibilizado ao público, o código de ética de uma empresa pode ajudar a desenvolver a confiança dos clientes e das partes interessadas, mitigando riscos legais e demonstrando responsabilidade social.

O administrador de dados e os relatórios de ética da IA: Um programa de governação da IA ​​deve incluir uma série de políticas e procedimentos que apoiem preocupações éticas. Uma dessas políticas deveria exigir relatórios de ética agendados regularmente, e o administrador de dados parece ser uma pessoa apropriada para atribuir essa responsabilidade. Ao criar um mecanismo de relatório sobre o uso ético da inteligência artificial da organização, a liderança sênior pode garantir a responsabilização. As auditorias de rotina também podem ajudar a identificar potenciais questões jurídicas e promover a conformidade. 

Estas medidas fortalecem coletivamente a implementação de um programa de governação de IA e promovem práticas responsáveis ​​de IA em toda a organização.

Educar a gerência e a equipe: A criação de um programa abrangente de governação da IA ​​exige que todo o pessoal e gestão tenham uma compreensão do código de ética e dos objetivos a longo prazo da organização. O processo educativo garante que todos os funcionários trabalham para atingir os mesmos objetivos e que ninguém na equipe trabalha de forma equivocada contra esses objetivos.

O uso de algoritmos na governança de IA

Se nós, como seres humanos, encontrarmos uma forma de separar e identificar informações precisas de informações incorretas, poderemos ser capazes de desenvolver algoritmos que impeçam a inteligência artificial de realizar atos criminosos e distribuir informações incorretas.

Carimbo de hora:

Mais de DATAVERSIDADE