Kanada beskriver frivillig uppförandekod för AI-utvecklare

Kanada beskriver frivillig uppförandekod för AI-utvecklare

Källnod: 2220916

Den kanadensiska regeringen har utarbetat en frivillig uppförandekod för AI-utvecklare för att förhindra att deras system används för att skapa skadligt eller skadligt innehåll.

Samråd pågår för närvarande mellan Innovation Canada och olika intressenter såsom civilsamhället och branschexperter om koden som förväntas vara på plats före Bill C-27, en lagstiftning som också innehåller artificiell intelligens och datalagen (AIDA).

Samråden kommer också att säkerställa att en grupp lagstiftare har en bättre förståelse för AI-tekniken i tid för parlamentets återkomst i september.

Obligatoriska skyddsåtgärder

Enligt Calgary Herald, kommer koden att kräva att AI-utvecklare har skyddsåtgärder som säkerställer att deras teknik inte används för skadliga syften som cyberattacker, utger sig för att vara riktiga personer eller andra åtgärder som kan lura människor att avslöja sina personuppgifter eller ge juridiska eller medicinska råd.

Brottslingar har använt generativ AI för att klona människors röster och använda dem för att lura sina vänner och familjer med pengar efter att ha låtsats vara i trubbel.

I Kanada har experter drivit på för att regeringen ska ta kontroll över AI-industrin efter lanseringen av generativa AI-plattformar som ChatGPT och andra system, som kan komponera prosa, texter och text, och generera verkliga bilder, videor och audio.

Tekniken har potential att förändra industrier men kan också missbrukas och missbrukas av luriga individer.

Nu vill den kanadensiska regeringen att den frivilliga koden ska vara "tillräckligt robust för att säkerställa att utvecklare, deployers och operatörer av generativa AI-system kan undvika skadliga effekter, bygga förtroende för sina system och smidigt övergå till efterlevnad av Kanadas kommande regelverk. ”

Innovation Canada har också indikerat att regeringen "avser att prioritera regleringen av generativa AI-system." Planerna för koden finns i ett dokument som släpptes onsdagen den 16 augusti.

Läs också: Caitling Long uttalar sig mot DC:s försök att låsa digitala tillgångar

Shutterstock

Skillnad mellan original- och AI-innehåll

Enligt dokumentet kommer AI-utvecklare att vara tvungna att införa system som tillåter människor att skilja mellan AI-innehåll och en mänsklig skapelse och säkerställa mänsklig tillsyn.

Detta är inte unikt för Kanada enbart eftersom EU också bad onlineplattformar som Meta att märka allt AI-genererat innehåll som en del av åtgärder för att bekämpa desinformation. 

I USA finns teknikföretag som Google, Meta, OpenAI, Athropic, Amazon, Microsoft och Inflection frivilligt överenskommit med Vita huset för ansvarsfull och säker AI-utveckling. De åtog sig att vattenmärka AI-innehåll och skydda marknaden från cyberattacker och diskriminering.

Uppförandekoden berör också användarnas säkerhet och uppmanar AI-företagen att se till att deras system är säkra och säkra.

Utöver det tvingar den frivilliga koden också utvecklare att kritiskt granska sina system för att undvika "data av låg kvalitet och icke-representativa datamängder eller fördomar."

Detta kommer som generativ AI har anklagats för att begå fördomar mot minoriteter.

Regleringen huvudvärk

Samtidigt talar samma dokument som släpptes onsdagen den 16 augusti också om lagförslaget, som innehåller AIDA, och säger att det var utformat "för att vara anpassningsbart till ny utveckling inom AI-teknik" och kommer att tillhandahålla den "rättsliga grunden" för att reglera generativ AI.

Lagförslaget har dock kritiserats för att vara föråldrat. Enligt National Post, presenterades lagförslaget i juni 2022. Det betyder att det skrevs innan ChatGPT och dess andra konkurrenter som Google Bard och Microsoft Bing lanserades, "vilket betyder att det faktiskt är före framväxten av generativa AI-system."

Lagförslaget har också kritiserats för blir rusad, utan tillräckligt med input från andra intressenter och därför i behov av omfattande revidering för att ge klarhet om vilka AI-tekniker den kommer att styra och hur.

Sedan lanseringen av ChatGPT och den efterföljande boomen i generativ AI, har lagstiftare från hela världen knakat i huvudet för att försöka komma på ett regelverk för att styra tekniken. 

Från Kina För USA och Europa har AI-reglering varit aktuell med ledare som försöker hitta en balans mellan att främja innovation och upprätthålla användarnas säkerhet.

DELA DETTA INLÄGG

Tidsstämpel:

Mer från MetaNews