정부에서 AI 개발 플랫폼을 구축하기 위한 모범 사례 

소스 노드 : 1186718

작성자 : John P. Desmond (AI 트렌드 편집자) 

미 육군 AI 통합 센터의 수석 데이터 과학자인 아이작 페이버(Isaac Faber)에 따르면 카네기 멜론 대학에서 정의한 AI 스택은 미 육군이 AI 개발 플랫폼 노력을 위해 취하는 접근 방식의 기본이라고 합니다. AI 세계 정부 지난 주 버지니아 주 알렉산드리아에서 직접 대면 및 가상으로 개최된 이벤트입니다.  

아이작 페이버, 미 육군 AI 통합 센터 수석 데이터 과학자

"디지털 현대화를 통해 육군을 레거시 시스템에서 이동하려는 경우 내가 찾은 가장 큰 문제 중 하나는 응용 프로그램의 차이점을 추상화하는 데 어려움이 있다는 것입니다."라고 그는 말했습니다. "디지털 변환의 가장 중요한 부분은 클라우드나 로컬 컴퓨터에 있는 것을 더 쉽게 만들어주는 플랫폼인 중간 계층입니다." 새로운 스마트폰이 사용자의 연락처 및 기록을 이전하는 것과 동일한 방식으로 소프트웨어 플랫폼을 다른 플랫폼으로 이동할 수 있기를 바랍니다.  

윤리는 AI 애플리케이션 스택의 모든 계층을 가로질러 계획 단계를 맨 위에 배치하고 의사 결정 지원, 모델링, 기계 학습, 대규모 데이터 관리, 장치 계층 또는 플랫폼을 맨 아래에 배치합니다.  

"저는 스택을 핵심 인프라로 생각하고 우리의 접근 방식에서 격리되지 않고 애플리케이션을 배포할 수 있는 방법이라고 생각합니다."라고 그는 말했습니다. "우리는 전 세계에 분산된 인력을 위한 개발 환경을 만들어야 합니다."   

육군은 2017년에 처음 발표된 공통 운영 환경 소프트웨어(Coes) 플랫폼에 대해 작업하고 있습니다. 이 플랫폼은 확장 가능하고, 민첩하고, 모듈식이며, 휴대 가능하고 개방된 DOD 작업용 설계입니다. Faber는 "광범위한 AI 프로젝트에 적합합니다. 그는 노력을 펼친 데 대해 “악마는 디테일에 있다”고 말했다.   

육군은 다음을 포함하여 프로토타입 플랫폼에서 CMU 및 민간 회사와 협력하고 있습니다. 비시모 AI 개발 서비스를 제공하는 펜실베이니아주 코라오폴리스 소재. Faber는 선반에서 제품을 구입하는 것보다 민간 산업과 협력하고 조정하는 것을 선호한다고 말했습니다. "그 문제는 일반적으로 DOD 네트워크의 과제를 위해 설계되지 않은 한 공급업체가 제공하는 가치에 갇혀 있다는 것입니다."라고 그는 말했습니다.  

육군, AI에서 다양한 기술 팀 훈련 

육군은 다음을 포함한 여러 팀을 위해 AI 인력 개발 노력에 참여합니다. 리더십, 대학원 학위를 가진 전문가, 인증을 받기 위해 교육을 받은 기술 직원; AI 사용자.   

육군의 기술 팀은 범용 소프트웨어 개발, 운영 데이터 과학, 분석이 포함된 배포, 컴퓨터 비전 시스템을 구축하는 데 필요한 대규모 팀과 같은 기계 학습 운영 팀 등 다양한 초점 영역을 가지고 있습니다. Faber는 "사람들이 인력을 통해 들어오면서 협업하고 구축하고 공유할 수 있는 장소가 필요합니다."라고 말했습니다.   

프로젝트 유형에는 과거 데이터 스트림을 결합할 수 있는 진단, 예측을 기반으로 조치 과정을 권장하는 예측 및 규범이 포함됩니다. “먼 끝에 AI가 있습니다. 당신은 그것으로 시작하지 않습니다.”라고 Faber가 말했습니다. 개발자는 데이터 엔지니어링, 그가 '녹색 거품'이라고 부르는 AI 개발 플랫폼, 그리고 '빨간 거품'이라고 칭한 배포 플랫폼이라는 세 가지 문제를 해결해야 합니다.   

“이들은 상호 배타적이며 모두 상호 연결되어 있습니다. 서로 다른 사람들로 구성된 팀은 프로그래밍 방식으로 조정해야 합니다. 일반적으로 좋은 프로젝트 팀에는 이러한 거품 영역의 사람들이 있습니다.”라고 그는 말했습니다. “아직 해보지 않았다면 그린버블 문제를 풀려고 하지 마세요. 운영상의 필요가 있을 때까지 AI를 추구하는 것은 의미가 없습니다.”   

Faber는 어떤 그룹이 가장 접근하기 어렵고 교육하기 어려운 그룹이냐는 질문에 “가장 접근하기 힘든 그룹은 경영진이다. 그들은 AI 생태계가 제공하는 가치가 무엇인지 배워야 합니다. 그 가치를 어떻게 전달하느냐가 가장 큰 과제”라고 말했다.   

패널이 가장 가능성 있는 AI 사용 사례에 대해 논의  

신흥 AI의 기초에 관한 패널에서 시장 조사 기관인 IDC를 위한 글로벌 스마트 도시 전략의 프로그램 디렉터인 커트 사보이(Curt Savoie)는 어떤 신흥 AI 사용 사례가 가장 잠재력이 있는지 질문했습니다.  

미 공군 과학 연구실의 자치 기술 고문인 Jean-Charles Lede는 "임무 및 자원 계획을 위해 조종사와 운영자를 지원하는 측면에서의 결정 이점, 후방에서의 결정을 지적할 것입니다."   

노동부 신기술 책임자 Krista Kinnard

노동부의 신기술 책임자인 Krista Kinnard는 “자연어 처리는 노동부에서 AI의 문을 여는 기회”라고 말했습니다. "궁극적으로 우리는 사람, 프로그램 및 조직에 대한 데이터를 다루고 있습니다."    

Savoie는 패널리스트가 AI를 구현할 때 보게 되는 가장 큰 위험과 위험이 무엇인지 물었습니다.   

GSA(General Services Administration)의 연방 AI 구현 이사인 Anil Chaudhry는 전통적인 소프트웨어 개발을 사용하는 일반적인 IT 조직에서 개발자의 결정이 미치는 영향은 어디까지인지 설명합니다. AI를 사용하면 “전체 계층의 사람, 구성 요소 및 이해 관계자에 대한 영향을 고려해야 합니다. 알고리즘을 간단히 변경하면 수백만 명의 사람들에게 혜택을 제공하지 못하거나 대규모로 잘못된 추론을 할 수 있습니다. 그것이 가장 중요한 위험"이라고 말했다.  

그는 계약 파트너에게 "인간이 루프에 있고 인간이 루프에" 있게 해달라고 요청했다고 말했습니다.   

Kinnard는 이에 대해 "우리는 루프에서 인간을 제거할 생각이 없습니다. 사람들이 더 나은 결정을 내릴 수 있도록 권한을 부여하는 것입니다.”   

그녀는 AI 모델이 배포된 후 모니터링의 중요성을 강조했습니다. 그녀는 "모델은 변경 사항의 기반이 되는 데이터로 표류할 수 있습니다."라고 말했습니다. "따라서 작업을 수행할 뿐만 아니라 AI 모델이 수행하는 작업이 수용 가능한지 여부를 평가하려면 비판적 사고 수준이 필요합니다."   

그녀는 “우리는 책임감 있는 AI를 구현하기 위해 정부 전반에 걸쳐 사용 사례와 파트너십을 구축했습니다. 우리는 결코 사람을 알고리즘으로 대체하지 않을 것입니다.”  

공군의 레드는 “데이터가 존재하지 않는 활용 사례가 종종 있다. 우리는 50년 전쟁 데이터를 탐색할 수 없으므로 시뮬레이션을 사용합니다. 위험은 실제 위험인 '실제 격차에 대한 시뮬레이션'이 있다는 알고리즘을 가르치는 데 있습니다. 알고리즘이 현실 세계에 어떻게 매핑될지 확신할 수 없습니다.”  

Chaudhry는 AI 시스템에 대한 테스트 전략의 중요성을 강조했습니다. 그는 "도구에 매료되어 운동의 목적을 잊어버리는" 개발자들에 대해 경고했습니다. 그는 독립적인 검증 및 검증 전략에서 개발 관리자 설계를 권장했습니다. “당신의 테스트는 리더로서 당신의 에너지를 집중해야 하는 곳입니다. 리더는 자원을 투입하기 전에 투자가 성공했는지 여부를 어떻게 정당화할 것인지에 대한 아이디어를 염두에 둘 필요가 있습니다.”   

공군 참모총장은 설명 가능성의 중요성에 대해 이야기했습니다. “나는 기술자입니다. 나는 법을 행하지 않는다. AI 기능이 인간과 상호 작용할 수 있는 방식으로 설명하는 능력이 중요합니다. AI가 검증할 방법이 없다는 결론을 내리는 대신 대화를 나누는 파트너다”고 말했다.  

에서 자세한 내용보기 AI 세계 정부. 

타임 스탬프 :

더보기 AI 트렌드