큐:
데이터 과학자들이 투명성을 찾는 것이 왜 중요한가?
ㅏ:데이터 과학 프로젝트와 머신 러닝 프로그램에서 투명성은 본질적으로 그것들을 주도하는 복잡성과 정교함 때문에 중요합니다. 이러한 프로그램은 사전 결정된 선형 프로그래밍 지침을 따르지 않고 "학습"(확률적인 결과를 생성)하기 때문입니다. 기술이 어떻게 결론에 도달하는지 이해하기 어려울 수 있습니다. 인간 의사 결정자들에게 완전히 설명 할 수없는 머신 러닝 알고리즘의“블랙 박스”문제는이 분야에서 큰 문제입니다.
이를 염두에두고 설명 가능한 머신 러닝 또는 "설명 가능한 AI"를 마스터 할 수있는 것은 회사가 데이터 과학자의 인재 확보를 추구하는 데 주요 초점이 될 것입니다. 이미 우리에게 인터넷을 제공 한 기관인 DARPA는 설명 가능한 AI에서 수백만 달러 규모의 연구에 자금을 지원하고 있으며, 인간에게 투명한 기계 학습 및 인공 지능 기술을 만드는 데 필요한 기술과 자원을 장려하고 있습니다.
이를 생각하는 한 가지 방법은 종종 재능 개발의 "문해력 단계"와 "문해력 향상 단계"가 있다는 것입니다. 데이터 과학자의 경우 전통적인 문해력 단계는 기계 학습 프로그램을 구성하는 방법과 구축 방법에 대한 지식입니다. 파이썬과 같은 언어를 가진 알고리즘; 신경망을 구축하고 협력하는 방법. 문맹 퇴치 단계는 설명 가능한 AI를 습득하고 기계 학습 알고리즘 사용에 투명성을 제공하며 이러한 프로그램이 목표와 처리기의 목표를 향해 작동함에 따라 투명성을 유지하는 능력입니다.
데이터 과학에서 투명성의 중요성을 설명하는 또 다른 방법은 사용되는 데이터 세트가 계속 정교 해지고 따라서 사람들의 삶에 더 큰 영향을 줄 수 있다는 것입니다. 설명 가능한 기계 학습 및 데이터 과학의 또 다른 주요 동인은 유럽의 일반 데이터 보호 규정으로 최근 개인 데이터의 비 윤리적 사용을 억제하기 위해 시행되었습니다. GDPR을 테스트 사례로 사용하여 전문가는 데이터 과학 프로젝트를 설명해야 할 필요성이 개인 정보 보호 및 보안 문제와 비즈니스 윤리에 어떻게 부합되는지 확인할 수 있습니다.