AI를 믿을 수 있습니까? 그 결과를 의심없이 객관적으로 유효한 것으로 받아 들여야합니까? 문제는 AI 자체에 의문을 제기해도 명확한 답변을 얻지 못한다는 것입니다.
AI 시스템은 일반적으로 블랙 박스처럼 작동합니다. 데이터가 입력되고 데이터가 출력되지만 데이터를 변환하는 프로세스는 미스터리입니다. 두 가지 문제가 발생합니다. 하나는 어떤 알고리즘의 성능이 가장 신뢰할 수 있는지 확실하지 않다는 것입니다. 다른 하나는 겉보기에 객관적인 결과가 시스템을 프로그래밍하는 인간의 가치와 편견에 의해 왜곡 될 수 있다는 것입니다. 그렇기 때문에 이러한 시스템이 사용하는 가상 사고 프로세스 또는 "설명 가능한 AI"에 대한 투명성이 필요합니다.
윤리적 의무는 GDPR의 대상이되는 모든 사람에게 합법적 인 법이되었습니다. 이는 EU에 기반을 둔 사업뿐만 아니라 그곳의 사람이나 조직을 다루는 모든 사업에 영향을 미칩니다. 여기에는 EU 시민에게 "특정 상황을 제외하고는 자동 의사 결정의 대상이되지 않을 권리"및 "결정에 관련된 논리에 대한 의미있는 정보를 제공 할 권리"까지 확대되는 데이터 보호에 관한 여러 조항이 포함되어 있습니다. ”

