Peking felsorolja azokat a dolgokat, amelyeket a generatív mesterséges intelligencia cenzúrázására szeretne

Peking felsorolja azokat a dolgokat, amelyeket a generatív mesterséges intelligencia cenzúrázására szeretne

Forrás csomópont: 2054791

Miközben a kínai technológiai óriáscégek bevetik ChatGPT-klónjaikat, Peking rendeletjavaslatot adott ki a generatív mesterséges intelligencia chatbotok kutatására, fejlesztésére és használatára vonatkozóan, anélkül azonban, hogy megválaszolná, vajon az eszközök megfelelnek-e a szocialista eszméknek.

A szabályzattervezet, tegnap megjelent a Kínai Kibertér Adminisztráció által, és nagyszerű címmel Adminisztratív intézkedések a generatív mesterséges intelligencia szolgáltatásokkal kapcsolatban, 21 cikket részletez, amelyek a mesterséges intelligencia által generált tartalomra szólítanak fel, hogy „a szocializmus alapvető értékeit tükrözze, és ne tartalmazzon az államhatalom felforgatását, a szocialista rendszer megdöntését, az ország kettészakadására való felbujtást”.

A dokumentum emellett határozottan tiltja a terrorizmus, a szélsőségesség, az etnikai gyűlölet és a diszkrimináció előmozdítását. Az erőszak, az obszcén és pornográf információk, a hamis információk, valamint a gazdasági és társadalmi rendet megzavaró tartalmak szintén tilosak.

A szabályok az AI-eszközök tervezőire hárítják a felelősséget a faj, etnikai hovatartozás, meggyőződés, ország, régió, nem, életkor, foglalkozás alapján történő megkülönböztetés megelőzésére, a képzési adatok gondos kiválasztásával, az algoritmusok tervezésével és minden egyéb optimalizálással.

A felhasználóknak valódi nevükkel kell regisztrálniuk, és azokat, akik generatív mesterségesintelligencia-szolgáltatásokat nyújtanak, vagy másokat ebben segítenek, a botok által előállított tartalom előállítóinak tekintik. Ez a gyártó felelősséget vállal minden kapcsolódó adatvédelmi intézkedésért – beleértve a személyes adatokkal kapcsolatosakat is.

Azoknak, akik a mesterséges intelligencia segítségével nyilvános szolgáltatásokat nyújtanak, el kell végezniük egy biztonsági értékelést, mielőtt kínálatuk életbe lépne. Ezek a szolgáltatók válnak felelőssé az eredményért, valamint a személyes adatok kiszivárogtatásáért vagy a szellemi tulajdon megsértéséért. Ezenkívül egyértelműen fel kell jelölniük a tartalmat mesterséges intelligencia által generáltként, és kezelniük kell az esetleges panaszokat, valamint biztosítaniuk kell, hogy a felhasználók ne váljanak függővé az eszköztől vagy attól függjenek.

A szolgáltatónak ezenkívül fel kell függesztenie vagy le kell állítania minden olyan felhasználó szolgáltatását, aki úgy találja, hogy tartalmukat aljas célokra használták fel, vagy éppen megsértette a pekingi szabályokat, „beleértve a hálózati hírverést, rosszindulatú posztolást és kommentálást, spam létrehozását, rosszindulatú szoftverek írását és megvalósítását. helytelen kereskedelmi marketing.”

A szabályok ezután debütáltak Huawei és a Alibaba frissítéseket készítettek generatív AI modelljeikhez és kapcsolódó szolgáltatásaikhoz, miközben a vállalatok kedvelik Baidu a korai szolgáltatásokkal – mindez annak a versenynek a része, hogy az első életképes kínai ChatGPT analóg legyen.

A kínai technológiai óriások versenyeznek, hogy generatív mesterséges intelligencia eszközöket hozzanak piacra. A mesterséges intelligencia nemzeti politikai prioritás, és Kína sem mentes a FOMO-tól, amikor egy új technológia beindul, ahogy az OpenAI ChatGPT-je látványosan tette ezt.

Ha már a ChatGPT-ről beszélünk, Kínában nincs letiltva, de nehéz hozzáférni, mivel a felhasználóknak telefonszámmal kell regisztrálniuk, és a kínaiakat nem fogadják el.

Ez egy kényelmes helyzet Peking számára, mivel a kínai kormány azt részesíti előnyben, hogy a tengerentúlról beszerzett technológiát helyi cégek értékesítik és/vagy üzemeltetik.

A nagy nyelvi modellek (LLM) fejlesztésében részt vevő kínai cégek többsége számára nem idegen az előnyben részesített online szabályozó rendszerek, mivel az elmúlt években tapasztaltak többszörös leverés és irányelvei az elmúlt három évben. Az írás egyértelműen a falon volt, hogy küszöbön áll az AI és az LLM szabályozása.

A CAC által javasolt szabályok ezért nem meglepőek, és a többi tartalmi szabályozáshoz ismerős témák és célok vannak.

A szabályok tervezetét május 10-ig várják a nyilvános visszajelzések, ezt követően Peking „2023-ban” életbe lép néhány szigorú szabályt. A szabálytervezet a szabálysértési elkövetőkre kiszabható pénzbírságokat és az esetleges bűnügyi nyomozást vázolja.

A szabályozás ellenére a CAC közölte, hogy az állam támogatja az AI algoritmusok és keretrendszerek fejlesztését és használatát. Az állítások valószínűleg igazak, és olyan állami szervek intézkedéseit tükrözik, mint a Pekingi Városi Gazdasági és Informatikai Hivatal, amely bejelentette, hogy segít AI modellek és nyílt forráskódú keretrendszerek kiépítése még februárban.

De Peking kívánságlistáját nehéz lesz kitölteni, mert az éretlen és esendő technológiát arra kéri, hogy tartsa be az árnyalt cenzúraszabályokat, és ezzel korlátozhatja az adatmodellek használatát a hibák elkerülése érdekében.

A helyi webóriások azonban már megmutatták, hogy megértik, mit akar Peking.

Baidu ERNIE modellje debütált múlt hónapban, és felfedte, hogy a vállalat cenzúrát hajtott végre a politikailag érzékeny anyagokon, miközben rengeteg, meglehetősen egyszerű kérést elhibázott.

Ezenkívül Peking meg akarja védeni az IP-t, a vállalati titkokat és a felhasználói információkat, de az LLM-eket folyamatosan új képzési adatokkal látják el a felhasználók. Samsung nemrég derült ki milyen nehéz volt ellenőrizni az érzékeny adatokat, amikor állítólag háromszor is kiszivárogtak azok titkai a ChatGPT használatának első 20 napja során a koreai chaebolban.

Peking nyilvánvalóan szeretne tanulni a ChatGPT-bolondozóktól, de hogyan kerülheti el ezeket a hibákat, miközben fenntartja az értékeit tükröző kultúrát, és még mindig hasznos AI-terméket hoz létre. ®

Időbélyeg:

Még több A regisztráció