Bästa praxis för att bygga AI-utvecklingsplattformen i regeringen 

Källnod: 1186718

Av John P. Desmond, AI Trends Editor 

AI-stacken som definieras av Carnegie Mellon University är grundläggande för det tillvägagångssätt som den amerikanska armén tar för sina AI-utvecklingsplattformsinsatser, enligt Isaac Faber, Chief Data Scientist vid US Army AI Integration Center, som talade på AI-världsregeringen evenemanget hölls personligen och praktiskt taget från Alexandria, Virginia, förra veckan.  

Isaac Faber, Chief Data Scientist, US Army AI Integration Center

"Om vi ​​vill flytta armén från äldre system genom digital modernisering, är en av de största problemen jag har hittat svårigheten att abstrahera bort skillnaderna i applikationer," sa han. "Den viktigaste delen av digital transformation är mellanskiktet, plattformen som gör det lättare att vara på molnet eller på en lokal dator." Önskan är att kunna flytta din mjukvaruplattform till en annan plattform, med samma lätthet som en ny smartphone för över användarens kontakter och historik.  

Etiken går över alla lager i AI-applikationsstacken, vilket placerar planeringsstadiet i toppen, följt av beslutsstöd, modellering, maskininlärning, massiv datahantering och enhetslagret eller plattformen i botten.  

"Jag förespråkar att vi tänker på stacken som en central infrastruktur och ett sätt för applikationer att distribueras och inte bli tystade i vårt tillvägagångssätt," sa han. "Vi måste skapa en utvecklingsmiljö för en globalt fördelad arbetsstyrka."   

Armén har arbetat på en plattform för Common Operating Environment Software (Coes), som först tillkännagavs 2017, en design för DOD-arbete som är skalbar, smidig, modulär, portabel och öppen. "Den är lämplig för ett brett utbud av AI-projekt," sa Faber. För att ha utfört ansträngningen, "djävulen finns i detaljerna", sa han.   

Armén arbetar med CMU och privata företag på en prototypplattform, inklusive med Visimo från Coraopolis, Pa., som erbjuder AI-utvecklingstjänster. Faber sa att han föredrar att samarbeta och samordna med privat industri snarare än att köpa produkter från hyllan. "Problemet med det är att du har fastnat med värdet du får av den ena leverantören, som vanligtvis inte är designad för utmaningarna med DOD-nätverk," sa han.  

Army tränar en rad tekniska team i AI 

Armén engagerar sig i AI-arbetskraftsutvecklingsinsatser för flera team, inklusive: ledarskap, yrkesverksamma med examen; teknisk personal, som genomgår utbildning för att bli certifierad; och AI-användare.   

Tekniska team i armén har olika fokusområden, inklusive: generell mjukvaruutveckling, operationell datavetenskap, implementering som inkluderar analys och ett maskininlärningsoperationsteam, såsom ett stort team som krävs för att bygga ett datorvisionssystem. "När folk kommer genom arbetsstyrkan behöver de en plats att samarbeta, bygga och dela på," sa Faber.   

Typer av projekt inkluderar diagnostik, som kan vara att kombinera strömmar av historiska data, prediktiva och föreskrivande, som rekommenderar en handling baserad på en förutsägelse. ”Längst bort finns AI; det börjar man inte med”, sa Faber. Utvecklaren måste lösa tre problem: datateknik, AI-utvecklingsplattformen, som han kallade "den gröna bubblan", och distributionsplattformen, som han kallade "den röda bubblan."   

"Dessa är ömsesidigt uteslutande och alla sammankopplade. De här teamen av olika människor behöver programmässigt koordinera. Vanligtvis kommer ett bra projektteam att ha människor från vart och ett av dessa bubblor”, sa han. "Om du inte har gjort det här än, försök inte lösa problemet med gröna bubblor. Det är ingen mening att utöva AI tills du har ett operativt behov."   

På frågan av en deltagare vilken grupp som är svårast att nå och träna, sa Faber utan att tveka: "Det svåraste att nå är cheferna. De måste lära sig vilket värde som ska tillhandahållas av AI-ekosystemet. Den största utmaningen är hur man kommunicerar det värdet”, sa han.   

Panelen diskuterar AI-användningsfall med störst potential  

I en panel om Foundations of Emerging AI frågade moderator Curt Savoie, programdirektör, Global Smart Cities Strategies för IDC, marknadsundersökningsföretaget vilket framväxande AI-användningsfall som har störst potential.  

Jean-Charles Lede, teknisk rådgivare för autonomi för det amerikanska flygvapnet, Office of Scientific Research, sa: "Jag skulle peka på beslutsfördelar vid kanten, stödja piloter och operatörer, och beslut på baksidan, för uppdrag och resursplanering."   

Krista Kinnard, chef för Emerging Technology för Department of Labor

Krista Kinnard, chef för Emerging Technology för Department of Labor, sa: "Naturlig språkbehandling är en möjlighet att öppna dörrarna till AI i Department of Labor," sa hon. "I slutändan har vi att göra med data om människor, program och organisationer."    

Savoie frågade vilka är de stora riskerna och farorna som paneldeltagarna ser när de implementerar AI.   

Anil Chaudhry, direktör för Federal AI Implementations för General Services Administration (GSA), sa i en typisk IT-organisation som använder traditionell mjukvaruutveckling, att effekten av ett beslut av en utvecklare bara går så långt. Med AI: "Du måste överväga effekten på en hel klass av människor, beståndsdelar och intressenter. Med en enkel ändring av algoritmerna kan du skjuta upp fördelarna för miljontals människor eller göra felaktiga slutsatser i stor skala. Det är den viktigaste risken, säger han.  

Han sa att han ber sina avtalspartners att ha "människor i slingan och människor i slingan."   

Kinnard understödde detta och sa: "Vi har ingen avsikt att ta bort människor från slingan. Det handlar verkligen om att ge människor möjlighet att fatta bättre beslut.”   

Hon betonade vikten av att övervaka AI-modellerna efter att de har implementerats. "Modeller kan glida i takt med de data som ligger till grund för förändringarna," sa hon. "Så du behöver en nivå av kritiskt tänkande för att inte bara göra uppgiften, utan för att bedöma om det AI-modellen gör är acceptabelt."   

Hon tillade, "Vi har byggt upp användningsfall och partnerskap över hela regeringen för att se till att vi implementerar ansvarsfull AI. Vi kommer aldrig att ersätta människor med algoritmer.”  

Lede från flygvapnet sa: "Vi har ofta användningsfall där data inte finns. Vi kan inte utforska 50 års krigsdata, så vi använder simulering. Risken ligger i att lära ut en algoritm att du har en "simulering till verklig gap" som är en verklig risk. Du är inte säker på hur algoritmerna kommer att kartläggas till den verkliga världen."  

Chaudhry betonade vikten av en teststrategi för AI-system. Han varnade för utvecklare "som blir förtjusta i ett verktyg och glömmer syftet med övningen." Han rekommenderade utvecklingschefens design i oberoende verifierings- och valideringsstrategi. "Din testning, det är där du måste fokusera din energi som ledare. Ledaren behöver en idé i åtanke, innan han anslår resurser, om hur de kommer att motivera om investeringen var en framgång.”   

Lede från flygvapnet talade om vikten av att förklara. "Jag är en teknolog. Jag gör inga lagar. Förmågan för AI-funktionen att förklara på ett sätt som en människa kan interagera med är viktig. AI:n är en partner som vi har en dialog med, istället för att AI:n kommer med en slutsats som vi inte har något sätt att verifiera, säger han.  

Läs mer på AI World Government. 

Tidsstämpel:

Mer från AI-trender