creation of adam
신용: Pixabay/CC0 공개 도메인

자율주행택시는 승객이 없기 때문에 혼잡을 줄이기 위해 스스로 주차를 하고,대기 오염.환영을 받은 택시는 승객을 태우러 나갔고, 도중에 횡단보도를 건너던 보행자를 안타깝게 치게 됩니다.

혼잡과 대기 오염을 줄이기 위한 자동차의 행동에 대해 누가 또는 무엇을 칭찬해야 할까요?그리고 보행자의 부상에 대해 누구 또는 무엇이 책임을 져야 합니까?

한 가지 가능성은 자율주행 택시의 설계자나 개발자이다.하지만 대부분의 경우 택시의 정확한 행동을 예측할 수 없었을 것입니다.실제로 사람들은 일반적으로 인공 지능이 새롭거나 예상치 못한 아이디어나 계획을 발견하기를 원합니다.시스템이 무엇을 해야 하는지 정확히 안다면 AI에 신경 쓸 필요가 없습니다.

아니면 택시 자체를 칭찬하고 비난해야 할 수도 있습니다.그러나 이러한 종류의 AI 시스템은 본질적으로 결정론적입니다. 관찰자가 해당 동작을 예측하는 데 어려움을 겪더라도 해당 시스템의 동작은 코드와 수신 센서 데이터에 의해 결정됩니다.선택의 여지가 없는 기계를 도덕적으로 판단하는 것은 이상해 보입니다.

에 따르면많은 현대의 철학자, 합리적 에이전트도덕적 책임을 질 수 있다비록 그들의 행동이 신경과학에 의해서든 코드에 의해서든 완전히 미리 결정되어 있다 하더라도 말입니다.그러나 대부분의 사람들은 도덕적 행위자가 자율주행 택시에는 거의 확실히 부족한 특정 능력(예: 자신의 가치를 형성하는 능력)을 가져야 한다는 데 동의합니다.AI 시스템은 도덕적 행위자와 비도덕적 도구 사이의 불편한 중간 지점에 위치합니다.

사회로서 우리는 수수께끼에 직면해 있습니다. 철학자들이 책임 격차라고 부르는 AI의 행동에 대해 도덕적으로 책임이 있는 사람은 아무도 없는 것 같습니다.오늘날의 도덕적 책임 이론은 자율 또는 반자율 AI 시스템과 관련된 상황을 이해하는 데 적합하지 않은 것 같습니다.

현재의 이론이 효과가 없다면 아마도 우리는 과거, 즉 오늘날 놀라운 공명을 불러일으키는 수백 년 된 아이디어를 살펴보아야 할 것입니다.

신인

비슷한 질문이 13세기와 14세기의 기독교 신학자들을 당황하게 만들었습니다.토마스 아퀴나스에게둔스 스코투스에게오컴의 윌리엄.전지하신 하나님께서 그들을 설계하셨고 아마도 그들이 무엇을 할지 알고 계셨다면, 사람들은 그들의 행동과 결과에 대해 어떻게 책임을 질 수 있겠습니까?

중세 철학자들은 누군가의 결정은 자신의 의지, 즉 자신의 산물에 따라 결정된다고 주장했습니다..대체로 그들은 이해했다.정신적 능력의 집합으로서의 인간의 지성합리적인 사고와 학습을 가능하게 합니다.

지능은 사람들의 마음이나 영혼의 합리적이고 논리적인 부분입니다.두 사람이 동일한 상황에 직면하고 둘 다 문제를 처리하는 방법에 대해 동일한 "합리적인 결론"에 도달하면 지성을 사용하고 있는 것입니다.지능은 이런 점에서 컴퓨터 코드와 같습니다.

그러나 지성이 항상 독특한 답을 제공하는 것은 아닙니다.종종 지성은 단지 가능성만을 제공하며,의지는 그 중에서 선택한다, 의식적이든 무의식적이든.의지는 다음의 행위이다자유롭게 선택가능성 중에서.

간단한 예로, 비오는 날 지성은 옷장에서 우산을 꺼내야 하지만 어떤 우산을 꺼내야 하는지 지시하지 않습니다.윌은 파란색 우산 대신 빨간색 우산을 선택하고 있습니다.

이들을 위해중세 사상가,도덕적 책임의지와 지성이 각각 무엇에 기여하는지에 달려 있습니다.지성이 가능한 행동이 단 하나뿐이라고 결정한다면 나는 달리 할 수 ​​없으며 따라서 도덕적 책임을 지지 않습니다.중세 신학자들은 책임을 하나님께 돌리는 데 매우 조심스러웠지만, 나의 지성은 하나님께로부터 왔기 때문에 어떤 사람은 하나님이 도덕적으로 책임이 있다고 결론을 내릴 수도 있습니다.

반면에 지성이 내 행동에 전혀 제약을 가하지 않는다면 모든 일은 의지가 하기 때문에 나는 전적으로 도덕적 책임을 지게 됩니다.물론 대부분의 행동에는 지성과 의지 모두의 기여가 포함됩니다. 이는 일반적으로 둘 중 하나 또는 둘 중 하나가 아닙니다.

게다가 다른 사람들은 종종 우리를 제약합니다. 부모와 교사부터 판사와 군주까지, 특히 중세 철학자 시대에는 도덕적 책임을 부여하는 것이 더욱 복잡해졌습니다.

인간과 AI

분명히 AI 개발자와 그들의 창조물 사이의 관계는 신과 인간 사이의 관계와 정확히 동일하지 않습니다.하지만철학 교수들 그리고 컴퓨팅, 우리는 흥미로운 유사점을 봅니다.이러한 오래된 아이디어는 오늘날 AI 시스템과 그 설계자가 어떻게 도덕적 책임을 공유할 수 있는지 생각해 보는 데 도움이 될 수 있습니다.

AI 개발자는 전지한 신은 아니지만 다음과 같은 방법으로 AI 시스템의 "지성"을 제공합니다.선택 및 구현학습 방법과 대응 능력.디자이너의 관점에서 볼 때 이 "지성"은 AI의 행동을 제한하지만 AI의 행동을 완전히 결정하는 경우는 거의 없습니다.

대부분의 최신 AI 시스템은 데이터로부터 학습하도록 설계되었으며 환경에 동적으로 대응할 수 있습니다.따라서 AI는 "지성"의 제약 내에서 대응 방법을 선택하는 "의지"를 갖고 있는 것처럼 보입니다.

사용자, 관리자, 규제 기관 및 기타 당사자는 중세 철학자의 틀에서 군주와 같은 인간 권위가 사람들을 제한하는 방식과 유사하게 AI 시스템을 더욱 제한할 수 있습니다.

책임은 누구에게 있나요?

이러한 천년 된 아이디어는 AI 시스템과 관련된 도덕적 문제의 구조와 놀랍게도 잘 매핑됩니다.그럼 첫 번째 질문으로 돌아가겠습니다. 자율주행 택시의 이익과 해악은 누구 또는 무엇에 책임이 있습니까?

세부 사항이 중요합니다.예를 들어, 택시 개발자가 횡단보도 주변에서 택시가 어떻게 행동해야 하는지 명시적으로 적어 둔다면, 택시의 행동은 전적으로 택시의 '지성'에 따른 것이므로 개발자가 책임을 지게 됩니다.

그러나 택시가 명시적으로 프로그래밍되지 않은 상황에 직면했다고 가정해 보겠습니다. 예를 들어 횡단보도가 비정상적인 방식으로 칠해졌거나 택시가 개발자가 염두에 두었던 것과 다른 환경의 데이터를 학습한 경우입니다.이러한 경우 택시의 행동은 주로 택시의 '의지'에 따른 것입니다. 택시가 예상치 못한 선택을 선택했기 때문에 택시가 책임을 지게 됩니다.

택시가 도덕적으로 책임이 있다면 어떻게 될까요?택시회사가 책임이 있나요?해야택시우리 둘도 완전한 대답에 동의하지 않습니다.그러나 우리는중요한 첫 번째 단계입니다.

중세 사상은 중세 사물에만 국한되지 않습니다.이 신학자들은 오늘날 윤리학자들이 AI 시스템의 현재 과제를 더 잘 이해하도록 도울 수 있습니다. 비록 우리는 단지 표면만 긁었을 뿐입니다.

이 기사는 다음에서 재출판되었습니다.대화크리에이티브 커먼즈 라이센스에 따라.읽기원본 기사.The Conversation

소환:중세 신학은 새로운 문제에 대한 오래된 견해를 갖고 있습니다: AI 책임(2024년 9월 10일)2024년 9월 10일에 확인함https://techxplore.com/news/2024-09-medieval-theology-problem-ai-responsibility.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.