1. AI 발전에 대한 우려
홈페이지홈페이지 > 블로그 > 1. AI 발전에 대한 우려

1. AI 발전에 대한 우려

Dec 19, 2023

광범위하게 채택된 윤리적 AI 시스템을 설계하는 것은 매우 어려울 것입니다. 어떤 사람들은 불가능하다고 말할 수도 있습니다. 응답한 전문가 중 일부는 윤리가 정의, 실행 및 시행하기 어렵다고 지적했습니다. 그들은 윤리적 고려 사항에 있어서 상황이 중요하다고 말했습니다. 윤리적 규칙을 만들려는 모든 시도는 이러한 규칙을 적용하는 것이 혼란스러울 수 있는 수많은 다양한 시나리오를 생성합니다. 특정 시나리오에서 행위자의 성격과 상대적인 힘도 중요합니다. 사회적 표준과 규범은 진화하며 문화가 변함에 따라 완전히 달라질 수 있습니다. 윤리에 대한 교육이나 훈련을 많이 받은 사람은 거의 없습니다. 또한 좋은 행위자와 나쁜 행위자는 윤리적 규칙이 명확하지 않은 허점과 회색 영역을 이용하므로 다양한 수준의 성공을 통해 해결 방법, 패치 또는 기타 구제책이 만들어지는 경우가 많습니다.

우려를 표명한 전문가들도 거버넌스에 대한 우려를 나타냈다. 그들은 다음과 같이 질문했습니다. 누구의 윤리 시스템을 적용해야 합니까? 누가 그 결정을 내릴 수 있나요? 윤리적인 AI 구현에 관심을 가질 책임은 누구에게 있습니까? 일단 윤리 체제가 확립되면 누가 시행할 수 있습니까? 어떻게?

많은 응답자들은 지정학적, 경제적 경쟁이 AI 개발자의 주요 동인인 반면 도덕적 우려는 뒷전이라고 주장했습니다. 이들 전문가 중 일부는 AI 도구 제작자가 윤리적 문제를 해결하는 시스템을 설계할 인센티브가 거의 또는 전혀 없는 그룹에서 일한다고 말했습니다.

일부 응답자들은 실행 가능한 윤리 요구 사항이 확립되더라도 대부분의 AI 설계가 독점적이고 숨겨져 있고 복잡하기 때문에 적용하거나 관리할 수 없다고 지적했습니다. AI "결정"의 근거를 식별할 수 없다면 해로운 AI "결과"를 어떻게 진단하고 해결할 수 있습니까? 이들 전문가 중 일부는 기존 AI 시스템과 데이터베이스가 새로운 AI 애플리케이션을 구축하는 데 종종 사용된다는 점도 지적합니다. 이는 현재 시스템의 편견과 윤리적으로 문제가 되는 측면이 새로운 시스템에 설계되고 있음을 의미합니다. 그들은 기존 문제를 진단하고 해결하는 것이 불가능하지는 않더라도 어려울 수 있다고 말합니다.

이들 전문가 중 일부는 자신의 답변에 다음과 같은 중요한 질문에 해당하는 질문을 주입했습니다. 글로벌하고, 문화 간, 끊임없이 진화하고, 끊임없이 확장되는 다양한 블랙박스 시스템의 세계에서 윤리적 표준을 어떻게 정의하고 적용할 수 있습니까? 배우와 잘못된 정보가 번성합니까?

이 광범위한 주제에 대한 응답자의 의견은 다음 소제목 아래 20페이지에 걸쳐 구성되어 있습니다. 1) 무엇이 윤리적 행동을 구성하는지에 대해 동의하기 어려울 수 있습니다. 2) 인간이 문제이다: 누구의 윤리인가? 누가 결정하나요? 무슨 상관이야? 누가 집행합니까? 3) 모든 도구와 마찬가지로 AI는 좋거나 나쁘게 사용될 수 있으므로 표준 설정이 어렵습니다. 4) AI의 추가적인 진화 자체가 의문과 복잡성을 야기합니다.

스티븐 다운스,캐나다 국립 연구 위원회(National Research Council of Canada)의 디지털 기술 수석 연구원은 "인공 지능에 윤리 원칙을 적용할 때의 문제는 그것이 무엇인지에 대한 공통된 합의가 없다는 것입니다. 윤리적 원칙에 대한 만장일치의 일치는 단일 문화, 직업 또는 사회 집단보다 더 광범위하지 않습니다. 이는 우리가 다른 사람들에 대한 불공평, 불의, 심지어 폭력과 죽음을 쉽게 영속화함으로써 명백해집니다. 어느 나라도 면제되지 않습니다.

"인공 지능에 윤리 원칙을 적용할 때의 문제는 그것이 무엇인지에 대한 공통된 합의가 없다는 것입니다. 윤리 원칙에 대해 일종의 만장일치가 있다고 가정하는 것이 일반적이지만 이러한 만장일치는 단일 문화보다 더 광범위하지 않습니다. 직업이나 사회 집단."

"이것을 더욱 복잡하게 만드는 것은 현대 인공 지능이 원칙이나 규칙을 기반으로 하지 않는다는 사실입니다. 현대 AI는 대규모 데이터 수집에 수학적 기능을 적용하는 것을 기반으로 합니다. 이러한 유형의 처리는 윤리적 원칙에 따라 쉽게 형성되지 않습니다. ' 또는 '사악한' 수학 함수, 그리고 데이터에 있는 편견과 편견은 쉽게 식별되거나 예방되지 않습니다. 한편, AI의 적용은 결과에 의해 과소 결정됩니다. 도움이 필요한 사람에게 도움을 주거나 해당 사람이 취업, 보험 또는 금융 서비스를 받지 못하게 하는 것입니다.