광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[인공지능 윤리강령 만들기] AI의 이점과 위험을 모두 평가하는 표준을 기반으로 한다. 이를 위해서는 시스템 개발의 실수로 인해 발생할 수 있는 피해나 단점을 고려하기 위해 연구 및 설계 단계 내에서 뒤로 물러나야 한다. 좋든 나쁘든 AI는 인간의 사고 과정을 모방한다. 불완전한 데이터 입력이 잘못된 학습으로 이어져 잘못된 결정을 내리는 주기는 인간에게도 마찬가지이다.

박영숙세계미래보고서저자 | 기사입력 2022/05/06 [06:31]

[인공지능 윤리강령 만들기] AI의 이점과 위험을 모두 평가하는 표준을 기반으로 한다. 이를 위해서는 시스템 개발의 실수로 인해 발생할 수 있는 피해나 단점을 고려하기 위해 연구 및 설계 단계 내에서 뒤로 물러나야 한다. 좋든 나쁘든 AI는 인간의 사고 과정을 모방한다. 불완전한 데이터 입력이 잘못된 학습으로 이어져 잘못된 결정을 내리는 주기는 인간에게도 마찬가지이다.

박영숙세계미래보고서저자 | 입력 : 2022/05/06 [06:31]

 

인공지능 윤리강령 만들기

토마스 프레이 2022년 5월 5일 

 
미래학자 Thomas Frey 블로그: 인공 지능을 위한 윤리 강령 만들기

50년 이상 동안 과학자, 철학자, 수학자들은 인공 지능(AI)의 발전을 탐구하고 완성해 왔으며 이 기간 동안 보통 사람은 세부 사항과 실제 능력에 대해 무지했다. 1997년 IBM의 Deep Blue 컴퓨터가 세계 체스챔피언인 Garry Kasparov를 물리치고 나서야 우리는 이 놀랍고 새로운 과학 분야와 관련되기 시작할 수 있었다.

다음 세대는 18년 후 IBM의 Watson이 두 명의 Jeopardy 챔피언을 물리쳤을 때 비슷한 순간을 경험했다. 그리고 10년이 더 지난 지금 AI는 우리 주변에 와 있다.

우리 중 대부분은 AI의 응용프로그램을 "정상적인" 삶과 구별하지 못한다. AI는 소셜 미디어와 뉴스 피드를 강화한다. 그것은 우리에게 언어적 컴퓨터 통신과 함께 음성 및 생체 인식을 제공한다. 언어 기반 인터페이스는 우리의 질문에 답하고 우리가 가야 할 방향을 알려준다.

간단히 말해 AI는 인간의 사고 과정과 행동을 시뮬레이션하고 모방하여 작업을 수행 하고 인간이 할 수 있는 방식으로 결론을 내린다.

그래서 사람처럼 생각하고 행동하는 기계의 경우 ... 무엇이 잘못될 수 있나?

우리는 당연히 이해하지 못하는 것을 믿지 않는다. 그리고 AI와 같은 것을 완전히 이해할 수 없다면 우리가 신뢰하는 누군가가 최고의 이익을 위해 지켜보고 있는지 확인하고 싶다. 현재로서는 그런 종류의 감독이 없지만 곧 필요하게 될 것이다.

잘못된 데이터와 잘못된 행위자

AI 규제가 필요한 이유는 무엇인가?

AI에서 발생하는 많은 윤리적 문제는 데이터 및 AI 프로그램이 작업하기 위해 제공되는 지식의 기초와 같은 잘못 형성되거나 부적절한 입력 때문이다. 잘못된 데이터는 나쁜 결과를 낳고, 실제로 실제 상황을 반영하지 않는 편향된 데이터는 편향된 기계 학습을 촉발하고 결과적으로 결함이 있는 결과를 낳는다. 이러한 결과에 기반한 정책이나 조치는 우리를 앞으로가 아니라 뒤로 이동시킨다.

인간이 AI 기술을 보다 사악하고 범죄적인 방식으로 사용하는 경우도 있다.  AI는 조작, 속임수 및 왜곡에 사용될 수 있지만 한 사람의 조작이 다른 사람의 "설득"일 수도 있다. 예를 들어 타겟 광고에서 사전 심사는 "맞춤형"과 크게 다르지 않다. 그것은 모두 정도와 의도의 문제이다. 부적절한 AI 기반 활동을 보면 알지만 밝은 선을 정의하기 어려운 경우가 많다.

AI 윤리의 기본 표준

인간을 안전하게 섬기는 책임 있는 AI(조작자, 사기꾼, 왜곡자뿐 아니라)는 다음을 수행해야 한다.

설명 가능성

AI 기능의 입력, 처리 및 출력에 대한 공통 이해를 의미하는 투명성 및 "설명 가능성"의 표준을 기반으로 한다. 이것은 성공과 오류의 측정뿐만 아니라 공통의 합의된 언어와 정의를 갖는 것을 수반한다. 합리적으로 설명할 수 없는 결과나 과정이 있는 블랙박스가 없다는 뜻이다.

표준

AI의 이점과 위험을 모두 평가하는 표준을 기반으로 한다. 이를 위해서는 시스템 개발의 실수로 인해 발생할 수 있는 피해나 단점을 고려하기 위해 연구 및 설계 단계 내에서 뒤로 물러나야 한다. 개발 단계에서는 긍정적인 부분을 과도하게 홍보하고 우려를 경시하는 경향이 있는데, 이를 "윤리 세척"이라고 한다. 마찬가지로 우려되는 점은 AI의 단점을 "당분간" 무시하면서 이러한 문제가 발생하는 즉시 해결될 것이라는 확신을 제공한다는 것이다.

안전 장치

가드레일, 안전 표준 및 프로토콜을 유지하여 음성 및 얼굴 인식 또는 소셜 봇과 같은 AI의 고위험 기능을 관리한다. 딥페이크 뒤에 있는 AI가 대표적인 예이며, 이 놀라운 기술은 영화 특수 효과와 같은 정당한 이유로 사용될 수 있다. 또는 잘못된 정보를 제공하고, 속이고, 잘못 전하거나 훨씬 더 나쁜 목적으로 사용될 수 있다. 봇은 또 다른 예이다. 반면에 소셜 봇은 정보를 분류하고 순위를 매기기 위해 디지털 비서나 웹 크롤러로 적절하게 사용되지만 온라인 토론을 왜곡하고 거짓을 퍼뜨리는 데 의도적으로 사용될 수 있다.

고리 안에 갇힌 사람

처음 세 가지 기준이 충족되는지 확인하기 위해 AI 알고리즘을 훈련, 조정 및 테스트할 사람이 항상 루프에 있는지 확인하자. 즉, AI가 AI 개발을 완전히 감독해서는 안 된다.

이러한 표준을 지침으로 사용하여 AI규제는 신속하게 잡초를 제거해야 한다. 우리는 생각할 수 있는 모든 응용 프로그램을 다루려고 하는 광범위하고 시행 가능한 표준을 만들려고 해서는 안 된다. 대신, 은행이나 국방에서 AI를 사용하는 것과 같은 비즈니스 부문 및 얼굴 인식과 같은 특정 도구와 관련된 사용 사례에 초점을 맞춰야 한다.

AI 경찰 부대 만들기

이러한 정책을 시행하고 시행해야 하는 사람은 누구인가? 이것은 쉬운 대답이 없는 거대한 질문이다.

이러한 표준을 성문화하고 규제하는 입법기관에 전적으로 의존할 수는 없다. 정책결정은 느리고 특별한 이익 조작의 대상이 되며 심지어 정치적인 경우도 있다. 이러한 정부 기관은 반복적인 새로운 문제가 기존 문제를 대체함에도 불구하고 항상 마지막 세대의 문제를 해결하는 것처럼 보인다.

또한 표준은 글로벌해야 하며 이는 훨씬 더 도전적인 정책 분야이다. 모든 수준의 정부는 신뢰를 키우는 데 중요하지만 오늘날의 긴급 상황에 덜 적응하게 만드는 산업으로부터 어느 정도의 독립성을 가지고 있다.

확실히, 정부 기관은 방심하지 않았다국가(예: 미국 및 중국)와 국가 블록(예: EU)은 AI에 대한 감독 및 규제를 위한 프레임워크를 발표했다. 적어도 시작이다.

정책은 관련 정보를 제공할 수 있는 정보에 입각한 규제 직원에 의해 조정된 업계의 지식 있는 정보와 함께 규제에 의해 설정될 가능성이 더 크다.

그러나 이것이 발전함에 따라 우리는 내부 표준을 수립하고 산업 전반의 표준을 개발하기 위해 공동으로 작업하는 기술 회사 자체에 책임을 져야 할 것이다. 이는 정보의 포인트가 될 수 있으며 규정을 설정하기 위한 경계선 역할을 할 수도 있다.

 
미래학자 Thomas Frey 블로그: AI 경찰 만들기

또 어떤 일이 일어나야 하나?

확실히 나는 AI의 열렬한 팬이다. 우리의 미래는 우리가 할 수 있는 것보다 훨씬 빠르고 안정적으로 식별하고, 이해하고, 배우고, 행동할 수 있는 AI 기술에 의해 주도될 것이다. 그것은 우리에게 추가적인 기능을 제공할 것이고 우리 모두는 그것을 위해 더 나아질 것이다.

그러나 신뢰를 높이고 AI를 적절한 위치에 유지하기 위해 규제 보호 장치 외에도 우리 모두는 AI가 무엇이고 무엇이 아닌지를 인식해야 한다. AI에는 불완전하거나 편향된 데이터 처리에서 학습이 발생하는 경우 결함이 있을 수 있는 기계 학습 및 기타 프로세스가 포함된다.

100번 중 99번은 지도 애플리케이션이 목적지까지 데려다 줄 것이다. 그러나 당신을 막다른 골목이나 도로 폐쇄로 보내는 시간이 여전히 있기 때문에 당신의 인생을 걸지 말자. AI 프로그램은 어느 정도 확실하게 선거 결과를 예측할 수 있지만 여전히 "듀이가 트루먼을 꺾는" 순간이 있을 수 있다. 아마도 이러한 정치적 맥락에서 투표를 점점 싫어하는 사람들의 투표 데이터에 의존하기 때문일 것이다.

예를 들어 우리가 소셜미디어에서 보고 읽는 것을 항상 믿지 않도록 우리 자신의 수준의 건전한 회의론을 개발해야 한다. 점점 더 많은 큐레이팅된 콘텐츠가 우선적으로 우리의 선호도를 강화하는 방식으로 AI 배포 및 봇 기반이기 때문에 이는 주요 도전이 될 것이다.

좋든 나쁘든 AI는 인간의 사고 과정을 모방한다. 불완전한 데이터 입력이 잘못된 학습으로 이어져 잘못된 결정을 내리는 주기는 인간에게도 마찬가지이다.

우리는 오늘날보다 훨씬 더 나은 세상에서 살기를 열망하며 AI는 우리를 그곳으로 이끄는 핵심 요소이다.

 

 

 

 

이 페이지 번역

 
 
광고
광고
광고
광고
광고
광고
많이 본 기사
AiMindbot과 미래 우주 많이 본 기사