오디오 darpa가 왜 설명 가능한 AI를 연구하고 있습니까?

darpa가 왜 설명 가능한 AI를 연구하고 있습니까?

Anonim

큐:

왜 DARPA가 "설명 가능한 AI"를 연구하고 있습니까?

ㅏ:

일반적으로 설명 가능한 인공 지능은 데이터 과학 분야의 최첨단 연구에서 많이 예고되고 있습니다. 본질적으로 휘발성이 있고 역동적 인 유형의 기술에 대한 인간의 통제를 안내하는 데 도움이됩니다. 설명 가능한 AI는 인공 지능이 작동하는 방식에 대한 우리의 총체적인 질문에 답변합니다.

설명 가능한 AI를 이해하려면 "일반 AI"의 모양을 이해하는 데 도움이됩니다. 전통적으로 AI가 구체화됨에 따라 일반적인 프로젝트는 알고리즘과 훈련 세트에 숨겨져있는 멋진 새로운 소프트웨어 기능과 사용자에게 일종의 "블록 박스"인 선형 코드로 구성됩니다. 그들은 그것이 작동한다는 것을 알고 있습니다 – 그들은 정확히 어떻게 알지 모릅니다.

이로 인해 사용자가 기술이 결정을 내리는 근거에 대해 질문 할 수있는 "신뢰 문제"가 발생할 수 있습니다. 설명 가능한 AI는 다음과 같이 설명합니다. 설명 가능한 AI 프로젝트에는 최종 사용자에게 AI의 의도와 구조를 보여주는 추가 인프라가 포함되어 있습니다. AI의 역할은 무엇입니까?

빌 게이츠 (Bill Gates)와 엘론 머스크 (Elon Musk)와 같은 최고 혁신가들이 인공 지능의 작동 방식에 대한 우려를 표명하는 시대에 설명 가능한 AI는 매우 매력적입니다. 전문가들은 설명 가능한 AI가 최종 사용자가 기술이 왜 자신이하는 일을 이해하고, 신뢰를 높이며, 이러한 기술의 사용 편의성과 활용도를 높이는 데 도움이 될 수 있다고 주장합니다.

그러나 DARPA는 새로운 프로젝트에 관심이있는 이유를 구체적으로 설명합니다. DARPA의 한 페이지에 따르면 국방부는 인공 지능 응용 프로그램의 "토런트"와 그 개발 과정에서 약간의 혼란을 예상하고 있습니다.

David Gunning은“지속적인 발전은 스스로 인식하고, 배우고, 결정하고, 행동 할 자율 시스템을 생산할 것을 약속합니다. “그러나 이러한 시스템의 효과는 시스템이 현재 사용자의 결정과 행동을 설명 할 수 없기 때문에 제한됩니다. … 미래의 전투기들이 새롭게 등장하는 인공 지능 기계 파트너를 이해하고 적절하게 신뢰하며 효과적으로 관리하려면 설명 가능한 AI, 특히 설명 가능한 기계 학습이 필수적입니다.”

Gunning의 온라인 에세이는 설명 가능한 AI 시스템이 기술에 대한 "이론을 제공"하고 기술의 장단점을 보여 주며 사용 사례를보다 투명하게 만드는 데 도움이 될 것이라고 제안합니다. 이 페이지의 그래픽은 사용자가 질문에 대답하는 데 도움이되는 설명 가능한 모델 및 설명 가능한 인터페이스라는 방법으로 교육 데이터의 인공 지능 기능에 대한 간단한 파이프 라인을 보완하는 방법을 보여줍니다. Gunning은 설명 가능한 AI 프로그램에는 두 가지 주요 초점 영역이있을 것임을 제안합니다. 하나는 멀티미디어 데이터를 통해 사용자에게 유용한 정보를 찾아 내고, 두 번째 초점은 의사 결정 지원을위한 의사 결정 프로세스를 시뮬레이션하는 것입니다.

DARPA는 향후 설명 가능한 AI 시스템을 개발하는 데 도움이되는 "툴킷"을 제공하고자합니다.

darpa가 왜 설명 가능한 AI를 연구하고 있습니까?