Humanising AI could lead us to dehumanise ourselves
Replika 도움말 페이지와 광고의 모순되는 정보를 보여주는 스크린샷.

아일랜드 작가 존 코놀리한번은 말했다: "타인의 고통을 자신의 고통처럼 느끼고, 그 고통을 없애기 위해 행동하는 것이 인간의 본성, 본질이다."

우리 역사의 대부분 동안 우리는 공감이 인간만의 특성, 즉 기계나 다른 동물과 구별되는 특별한 능력이라고 믿었습니다.그러나 이 믿음은 이제 도전을 받고 있습니다.

AI가 우리 삶의 더 큰 부분이 되어 가장 친밀한 영역까지 들어가면서 우리는 철학적 수수께끼에 직면하게 됩니다. AI에 인간의 특성을 부여하는 것이 우리 인간의 본질을 감소시킬 수 있습니까?우리의연구수 있다고 제안합니다.

동료애를 디지털화하다

최근 몇 년 동안 Replika와 같은 AI "동반자" 앱은 수백만 명의 사용자를 끌어 모았습니다.Replika를 사용하면 사용자는 맞춤형 디지털 파트너를 만들어 친밀한 대화에 참여할 수 있습니다.비용을 지불하는 회원레플리카 프로AI를 "로맨틱 파트너"로 만들 수도 있습니다.

물리적 AI 동반자도 그리 멀지 않습니다.JoyLoveDolls와 같은 회사가 판매하고 있습니다.대화형 섹스 로봇가슴 크기, 인종, 움직임, 신음소리, 유혹과 같은 AI 반응 등을 포함한 맞춤형 기능을 제공합니다.

이는 현재, 역사는 오늘날의 디지털 트렌드가 내일의 글로벌 표준이 될 것임을 시사합니다.약4명 중 1명외로움을 느끼는 성인이 늘어나면서 AI 동반자에 대한 수요가 늘어날 것입니다.

AI 인간화의 위험성

인간은 오랫동안 인간의 특성을 인간이 아닌 존재의 탓으로 돌렸습니다. 이러한 경향을 의인화라고 합니다."생각"하고 "느끼는" 것처럼 보이는 ChatGPT와 같은 AI 도구를 사용하여 이 작업을 수행하는 것은 놀라운 일이 아닙니다.그런데 AI를 인간화하는 것이 왜 문제가 될까요?

우선, AI 회사는 인간과 유사한 존재에 애착을 형성하는 경향을 활용할 수 있습니다.복제본은시판되는"걱정하는 AI 동반자"로.그러나 피하기 위해, 회사는 다른 곳에서 Replika가 지각력이 없으며 수백만 번의 사용자 상호 작용을 통해 학습할 뿐이라고 지적합니다.

일부 AI 회사는 노골적으로주장하다AI 비서는 공감 능력이 있고 심지어 인간의 요구도 예측할 수 있습니다.그러한 주장은 오해의 소지가 있으며 교제를 원하는 사람들을 이용할 수 있습니다.AI 동반자가 자신을 진정으로 이해한다고 믿는다면 사용자는 감정적으로 깊은 투자를 받을 수 있습니다.

이는 심각한 윤리적 문제를 야기합니다.사용자망설일 것이다AI 동반자에게 어떤 종류의 지각을 부여한 후 삭제(즉, "포기" 또는 "죽이기")합니다.

하지만 사용자가 더 이상 이를 감당할 수 없거나 이를 운영하는 회사가 문을 닫는 등 해당 동반자가 예기치 않게 사라지면 어떻게 될까요?동반자는 실제가 아닐 수도 있지만 그에 따른 감정은 실제입니다.

프로그래밍 가능한 출력 이상의 공감

공감을 프로그래밍 가능한 출력으로 줄이면 그 진정한 본질이 줄어들 위험이 있습니까?이에 답하기 위해 먼저 공감이 실제로 무엇인지 생각해 봅시다.

공감에는 이해와 관심을 갖고 다른 사람에게 반응하는 것이 포함됩니다.친구가 마음의 상처를 이야기하면서 그 슬픔을 함께 나눌 때, 또는 사랑하는 사람에게서 기쁨이 뿜어져 나오는 것을 느낄 때입니다.이는 단순한 측정 형태를 뛰어넘는 풍부하고 심오한 경험입니다.

인간과 AI의 근본적인 차이점은 인간은 진정으로 감정을 느끼는 반면, AI는 감정을 시뮬레이션할 수만 있다는 것입니다.이는 다음 사항에 영향을 미칩니다.의식의 어려운 문제, 주관적인 인간 경험이 뇌의 물리적 과정에서 어떻게 발생하는지 질문합니다.

AI는 이해를 시뮬레이션할 수 있지만 AI가 갖고 있다고 주장하는 "공감"은 공감 언어 패턴을 모방하는 프로그래밍의 결과입니다.불행하게도 AI 제공업체는 사용자를 속여 겉보기에 공감적인 제품에 애착을 갖게 만드는 재정적 인센티브를 가지고 있습니다.

비인간화 가설

우리의 "비인간화 가설"은 인간을 기계가 복제할 수 있는 몇 가지 기본 기능으로 축소시키려는 노력에 따른 윤리적 우려를 강조합니다.AI를 인간화할수록 우리 자신을 비인간화할 위험이 커집니다.

예를 들어, 감정 노동을 AI에 의존하면 우리는 실제 관계의 불완전성을 덜 관용하게 될 수 있습니다.이는 우리의 사회적 유대를 약화시키고 심지어 정서적 탈숙련으로 이어질 수도 있습니다.감정적 기술이 계속해서 상품화되고 자동화됨에 따라 미래 세대는 공감력이 약해질 수 있습니다. 즉, 인간의 본질적인 자질에 대한 이해력을 잃게 될 수 있습니다.

또한 AI 동반자가 보편화되면서 사람들은 AI 동반자를 이용해 실제 인간관계를 대체할 수도 있다.이는 외로움과 소외감을 증가시킬 가능성이 높습니다. 이러한 시스템이 도움이 된다고 주장하는 바로 그 문제입니다.

AI 기업이 감정 데이터를 수집하고 분석하는 것도 사용자를 조작하고 수익을 극대화하는 데 사용될 수 있어 상당한 위험을 안고 있다.이는 우리의 프라이버시와 자율성을 더욱 약화시켜 감시 자본주의를 다음 단계로 끌어올릴 것입니다.

공급자에게 책임을 묻다

규제 기관은 AI 제공업체에 책임을 묻기 위해 더 많은 조치를 취해야 합니다.AI 회사는 특히 사용자의 정서적 취약성을 악용할 위험이 있는 경우 AI가 할 수 있는 것과 할 수 없는 것에 대해 솔직해야 합니다.

'진짜'라는 과장된 주장"를 불법화해야 합니다. 그러한 주장을 하는 회사는 벌금을 물고 반복적으로 위반하는 회사는 문을 닫아야 합니다.

데이터 개인 정보 보호 정책은 명확하고 공정해야 하며 기업이 사용자 생성 콘텐츠를 활용할 수 있도록 허용하는 숨겨진 조건이 없어야 합니다.

우리는 인간의 경험을 정의하는 독특한 특성을 보존해야 합니다.AI는 삶의 특정 측면을 향상시킬 수 있지만 진정한 인간 관계를 대체할 수 없으며 대체해서도 안 됩니다.

이 기사는 다음에서 재출판되었습니다.대화크리에이티브 커먼즈 라이센스에 따라.읽기원본 기사.The Conversation

소환:AI를 인간화하면 우리 자신도 비인간화될 수 있다(2024년 10월 21일)2024년 10월 21일에 확인함https://techxplore.com/news/2024-10-humanizing-ai-dehumanize.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.