광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

의식을 가진 로봇의 전원을 꺼도 괜찮을까? 진정한 AI 구축의 도덕적 의미는 어떻게 될까? 과연 로봇이 고통을 느낄 수 있는 생물에 부여되는 도덕적 지위를 가질 수 있을까? 철학적인 관점에서 로봇은 생명권을 가질 수 있다. 인간은 다른 사람의 이익에 반하는 행동을 한다고 해서 도덕적 신분에 대한 주장을 잃지 않는다. 같은 방식으로 AI가 인류나 다른 AI의 이익에 반하는 행동을 한다고 해서 도덕적 지위가 없다고 자동으로 말할 수는 없다.

JM Kim | 기사입력 2020/10/29 [10:41]

의식을 가진 로봇의 전원을 꺼도 괜찮을까? 진정한 AI 구축의 도덕적 의미는 어떻게 될까? 과연 로봇이 고통을 느낄 수 있는 생물에 부여되는 도덕적 지위를 가질 수 있을까? 철학적인 관점에서 로봇은 생명권을 가질 수 있다. 인간은 다른 사람의 이익에 반하는 행동을 한다고 해서 도덕적 신분에 대한 주장을 잃지 않는다. 같은 방식으로 AI가 인류나 다른 AI의 이익에 반하는 행동을 한다고 해서 도덕적 지위가 없다고 자동으로 말할 수는 없다.

JM Kim | 입력 : 2020/10/29 [10:41]

스타 트렉에서: 엔터프라이즈의 안드로이드 승무원인 차세대 에피소드'아버지의초상데이터는 피카드 선장이 데이터가 인간과 동일한 권리를 가질 자격이 있다고 주장할 수 없다면 연구 목적으로 해체될 예정이다. 당연히 질문이 생긴다. 어떤 것이 권리를 갖는 근거는 무엇일까? 엔티티에 도덕적 지위를 부여하는 것은 무엇일까?  

 

철학자 Peter Singer는 고통을 느끼거나 고통을 받을 수 있는 생물은 도덕적 지위를 주장한다고 주장한다. 그는 인간이 아닌 동물은 고통과 고통을 느낄 수 있기 때문에 도덕적 지위를 가지고 있다고 주장한다. 그것을 사람들에게 제한하는 것은 인종 차별과 성 차별과 유사한 종주의의 한 형태가 될 것이다.

 

Singer의 추론을 지지하지 않고 데이터와 같은 안드로이드 로봇으로 확장할 수 있는지 궁금 할 것이다. 데이터가 고통을 느끼거나 고통을 느낄 수 있어야한다. 그리고 어떻게 대답하느냐는 의식과 지능을 어떻게 이해 하느냐에 달려 있다.

 

실제 인공지능기술이 할리우드의 상상 버전으로 발전함에 따라 도덕적 지위의 문제가 더욱 중요해졌다. 인공지능이 도덕적 지위를 가지고 있다면 나와 같은 철학자들이 추론한다면 그들은 생명권을 가질 수 있다. , 단순히 해체할 수 없으며 사람들이 목표를 추구하는 데 방해가 되어서는 안된다

 

 

 

지능의 두 가지 맛과 테스트

 

IBM Deep Blue 체스 머신은 그랜드 마스터 Gary Kasparov를 이길 수 있도록 성공적으로 훈련되었다. 그러나 다른 것은 할 수 없다. 이 컴퓨터에는 도메인 별 인텔리전스라는 기능이 있다.

 

반면에 다양한 일을 잘 할 수 있는 능력을 허용하는 지능이 있다. 이를 도메인 일반지능이라고 한다. 사람들이 요리하고, 스키를 타고, 자녀를 키울 수 있도록 하는 것이다. 관련이 있지만 매우 다른 작업이다.

 

인공일반지능(AGI)은 도메인일반지능을 가진 기계를 가리키는 용어이다. 틀림없이 아직 그런 종류의 지능을 입증한 기계는 없다. 올 여름, OpenAI라는 스타트 업이 Generative Pre-Training 언어 모델의 새 버전을 출시했다. GPT-3은 자연어 처리 시스템으로, 사람들이 쉽게 이해할 수 있도록 읽고 쓸 수 있도록 훈련되었다.

 

스타일리시 한 번영을 모방하고 그럴듯한 콘텐츠를 모으는 인상적인 능력뿐만 아니라 이전 버전과 얼마나 멀리 떨어져 있었는 지로 인해 즉각적인 주목을 받았다. 이러한 인상적인 성능에도 불구하고 GPT-3는 다양한 방법으로 단어를 연결하는 방법 외에는 아무것도 알지 못한다. AGI는 꽤 멀리 떨어져 있다.

 

선구적인 AI 연구원 Alan Turing의 이름을 따서 명명된 Turing 테스트는 AI가 지능적인 시기를 결정하는 데 도움이 된다. 숨겨진 AI와 대화하는 사람이 AI인지 인간인지 알 수 있을까? 그가 할 수 없다면 모든 실용적인 목적을 위해 AI는 지능적이다. 그러나 이 테스트는 AI가 의식을 가지고 있는지 여부에 대해서는 아무 것도 말해주지 않는다.

 

 

 

두 종류의 의식

 

의식에는 두 부분이 있다. 첫째, 의식의 감각적 부분인 경험의 나에게 맞는 측면이 있다. 철학자들은 이것을 경이적인 의식이라고 부른다. 장미 냄새나 통증과 같은 현상을 경험하는 방법에 관한 것이다.

 

반대로 접근 의식도 있다. 이는 목표에 따라 자극에 대해 조정되고 반응하는 방식으로 보고, 추론, 행동 및 행동하는 능력이다예를 들어 축구공을 친구에게 건네 주면서 골대를 노리면 시각적인 자극에 반응하고, 사전 훈련을 통해 행동하고, 경기 규칙에 따라 골을 쫓는 것이다. 나는 게임의 흐름에서 의식적인 숙고없이 자동으로 패스를 만든다.

 

실명은 두 가지 유형의 의식의 차이를 잘 보여준다. 예를 들어이 신경학적 상태를 가진 사람은 시야의 왼쪽에서 아무것도 볼 수 없다고 보고 할 수 있다. 그러나 시야의 왼쪽에 있는 물체 배열에서 펜을 집으라는 요청을 받으면 안정적으로 그렇게 할 수 있다. 그들은 펜을 볼 수 없지만 메시지가 표시되면 집을 수 있다. 이것은 경이적인 의식이 없는 접근 의식의 예입이다.

 

데이터는 안드로이드이다. 이러한 구별은 그와 관련하여 어떻게 작용할까?

 

 

 

데이터 딜레마

 

안드로이드 데이터는 그가 최적으로 충전되었는지 또는 로봇 팔에 내부 손상이 있는지 여부를 모니터링 할 수 있다는 점에서 그가 자각하고 있음을 보여준다.

 

데이터는 일반적인 의미에서도 지능적이다. 그는 높은 수준의 숙달에서 많은 뚜렷한 일을 한다. 그는 엔터프라이즈를 비행하고 선장 Picard의 명령을 받아 가장 좋은 길을 그와 함께 추론할 수 있다.

 

그는 또한 배 동료들과 포커를 하고, 요리를 하고, 친한 친구와 시사 문제를 논의하고, 외계 행성에서 적과 싸우고, 다양한 형태의 육체 노동에 참여할 수 있다. 데이터에는 액세스 의식이 있다그는 분명히 Turing 테스트를 통과할 것이다.

 

그러나 데이터에는 경이적인 의식이 부족할 가능성이 크다. 예를 들어, 그는 장미 향기를 좋아하거나 고통을 경험하지 않는다. 그는 실명의 초대형 버전을 구현한다. 그는 자각하고 접근 의식을 가지고 있어 펜을 잡을 수 있지만 그의 모든 감각에 걸쳐 경이적인 의식이 부족하다.

 

이제 데이터가 고통을 느끼지 않는다면 Singer가 생명체에게 도덕적 지위를 부여하는 이유 중 하나 이상이 충족되지 않는다. 그러나 데이터는 고통을 느끼지 않고도 고통을 겪을 수 있는 다른 조건을 충족시킬 수 있다. 고통은 고통이 본질적으로 하는 것처럼 경이적인 의식을 요구하지 않을 수도 있다.

 

예를 들어, 고통이 다른 사람에게 해를 끼치지 않고 정당한 원인을 추구하는 것을 방해받는 다는 생각으로 정의된다면 어떨까? 데이터의 목표가 승무원을 구하는 것이지만 팔다리 중 하나가 손상되어 그녀에게 도달할 수 없다고 가정한다. 승무원을 구하지 못하도록 하는 데이터의 기능 저하는 일종의 경이로운 고통이다. 그는 승무원을 구하는 것을 선호했을 것이고 그가 그렇게 한다면 더 나을 것이다.

 

에피소드에서 질문은 데이터가 자기 인식인지 여부가 아니라 의심의 여지가 없다. 그가 총명한 지 여부도 의문의 여지가 없다. 그는 자신이 일반적인 의미에 있음을 쉽게 보여준다. 불분명한 것은 그가 경이로운 의식인지 여부이다. 결국 그의 인간 판사들은 도덕적 지위에 대한 의식의 중요성에 동의할 수 없기 때문에 데이터는 해체되지 않는다.

 

 

 

AI가 도덕적 입장을 취해야 할까?

 

데이터는 친절하다. 그는 승무원과 외계 행성에서 만나는 사람들의 안녕을 지원하기 위해 행동한다. 그는 사람들의 명령에 순종하고 그들을 해칠 것 같지 않은 것처럼 보이며 자신의 존재를 보호하는 것처럼 보인다. 이러한 이유로 그는 도덕적 지위를 가진 것들의 영역에 평화롭고 더 쉽게 받아들여 보인다.

 

하지만 터미네이터 영화의 스카이넷은 어떤가? 아니면 최근 앨런 머스크(Elon Musk) AI가 핵무기보다 더 위험하다는 것과 AI가 인류를 종식시키는 것에 대한 스티븐 호킹(Stephen Hawking)에 대한 우려를 표현한 것일까?

 

인간은 다른 사람의 이익에 반하는 행동을 한다고 해서 도덕적 신분에 대한 주장을 잃지 않는다. 같은 방식으로 AI가 인류나 다른 AI의 이익에 반하는 행동을 한다고 해서 도덕적 지위가 없다고 자동으로 말할 수는 없다. 스카이넷과 같은 AI에 맞서 싸우는 것이 정당 할 수 있지만 그것이 도덕적 지위를 앗아가는 것은 아니다. 비 현상적으로 고통받을 수 있는 능력 때문에 도덕적 지위가 부여된다면, 데이터만이 인간을 돕고 싶어하더라도 스카이넷과 데이터는 둘 다 그것을 얻는다.

 

아직 인공지능 기계는 없다. 그러나 지금은 그들에게 도덕적 지위를 부여하기 위해 무엇이 필요할지 고려할 때이다. 인류가 비 생물학적 생물에 대한 도덕적 지위에 대한 질문에 답하기 위해 선택하는 방법은 데이터처럼 친절하고 도움이 되거나 스카이넷과 같이 파괴에 착수하는 등 미래의 AI를 처리하는 방법에 큰 영향을 미치게 된다.

 

이 기사는 Creative Commons 라이선스에 따라 The Conversation에서 다시 게시되었다. 원본 기사를 읽으실 수 있다.

 

 
인공지능, 인공일반지능 관련기사목록
광고
광고
광고
광고
광고
광고
광고
많이 본 기사
최신기사