[생성 AI의 윤리: 이 강력한 기술을 활용하는 방법] 인공지능 지수보고서에 따르면 Hugging Face의 Diffusion Bias Explorer는 Stable Diffusion이 어떤 이미지를 출력하는지 확인하기 위해 직업과 함께 형용사를 입력했다. 생성된 고정관념 이미지는 특정 형용사 설명으로 직업이 어떻게 코딩되는지를 보여준다.생성 AI의 윤리: 이 강력한 기술을 활용하는 방법
생성AI의 현재 산업 규모는 2023년 기준으로 약 120조원 규모로 추산된다. 이는 2022년 대비 약 20% 증가한 수치입니다. 생성AI는 다양한 산업에서 활용되고 있으며, 특히 제조, 의료, 미디어, 게임 분야에서 빠르게 성장하고 있다.
맥킨지는 생성AI 시장이 향후 2030년까지 5천조원 규모로 성장할 것으로 전망했다. 이는 2023년 대비 약 40배 증가한 수치다. 생성AI는 기술의 발전과 함께 더욱 다양한 분야에서 활용될 것으로 예상되며, 그에 따라 시장 규모도 크게 성장할 것으로 전망된다. 맥킨지의 전망은 생성AI의 잠재력을 보여주는 것으로 평가된다. 생성AI는 새로운 제품과 서비스의 개발, 기존 제품과 서비스의 개선, 비즈니스 프로세스의 효율화 등 다양한 측면에서 활용될 수 있는 기술이다. 생성AI가 더욱 발전하고 보급되면, 우리 삶의 다양한 영역에 혁신을 가져올 것으로 기대된다. 맥킨지의 전망은 다음과 같은 근거를 바탕으로 하고 있다.
생성AI가 우리 삶에 미칠 영향은 매우 클 것으로 예상되며, 그에 따라 생성AI 시장도 크게 성장할 것으로 전망된다. 맥킨지 외에도 다양한 기관과 기구에서 생성AI 시장의 성장을 전망하고 있다.
이러한 전망은 생성AI의 다양한 활용 가능성과 기업들의 관심 증가에 따른 것으로 분석. 생성AI는 다양한 분야에서 활용될 수 있는 잠재력을 가지고 있습니다. 대표적인 활용 분야로는 다음과 같은 것들이 있다.
기업들은 생성AI의 잠재력을 인식하고, 이를 활용하기 위한 투자를 확대하고 있다. 예를 들어, 제조 기업들은 생성AI를 활용하여 제품 디자인을 개선하고, 생산 공정을 효율화하고 있다. 의료 기업들은 생성AI를 활용하여 질병 진단 정확도를 높이고, 환자 맞춤형 치료를 제공하고 있다. 미디어 기업들은 생성AI를 활용하여 새로운 콘텐츠를 제작하고, 마케팅을 강화하고 있다. 게임 기업들은 생성AI를 활용하여 보다 사실적이고 몰입감 있는 게임을 개발하고 있다. 이러한 기업들의 투자 확대는 생성AI 시장의 성장을 견인할 것으로 예상된다. 다음은 기관과 기구별로 전망한 생성AI 시장 성장의 주요 내용이다. 맥킨지
가트너
포레스터
마켓스앤마켓스
이러한 전망을 종합해 볼 때, 생성AI 시장은 향후 2030년까지 크게 성장할 것으로 예상. 생성AI 기술의 발전과 함께 다양한 분야에서 활용될 수 있는 생성AI의 잠재력은 더욱 확대될 것으로 예상되며, 그에 따라 생성AI 시장도 더욱 성장할 것으로 전망된다.
아래 지드넷 글을 참조 제너레이티브 AI의 기능에 대한 새로운 발견이 매일 발표되면서 다양한 업계의 사람들은 AI가 일상 업무뿐만 아니라 더 크고 복잡한 프로젝트를 어느 정도까지 추진할 수 있는지 탐구하고 있다. 특징그러나 이러한 발견과 함께 생성 AI의 사용을 규제하는 방법에 대한 우려와 의문이 제기된다 . 동시에 OpenAI에 대한 소송이 제기되고 있으며 생성 AI의 윤리적 사용이 눈에 띄는 우려 사항이다. 업데이트된 AI 모델이 새로운 기능을 발전시키면서 법적 규제는 여전히 회색 영역에 있다. 지금 우리가 할 수 있는 일은 강력한 기술을 사용하는 데 따른 과제에 대해 교육하고 엄청난 잠재력을 지닌 기술의 오용에 대비해 어떤 보호책이 마련되어 있는지 배우는 것이다. AI를 사용하여 AI 조작에 맞서기변호사가 ChatGPT가 만든 허위 사건을 인용하는 상황부터 AI 챗봇을 사용해 논문을 작성하는 대학생 , 심지어 AI가 생성한 도널드 트럼프의 체포 사진까지 , 무엇이 실제 콘텐츠인지, 무엇이 실제 콘텐츠인지 구별하기가 점점 어려워지고 있다. 생성적 AI에 의해 생성되며 이러한 AI 보조자를 사용하기 위한 경계는 어디에 있나? AI를 테스트하는 동안 어떻게 책임을 질 수 있나? 또한: 까다로운 질문: AI가 생성한 코드, 이미지, 내러티브는 누가 소유하나? 연구자들은 생성적 AI를 자체적으로 사용하여 AI 조작 사례를 탐지하는 방법을 개발하여 생성적 AI의 남용을 방지하는 방법을 연구하고 있다. 코넬 기술정책연구소(Cornell Tech Policy Institute)의 이사이자 창립자인 사라 크렙스(Sarah Kreps) 박사는 “출력을 생성한 동일한 신경망은 거의 신경망의 표식인 이러한 서명을 식별할 수도 있다. 또한: 알아야 할 7가지 고급 ChatGPT 프롬프트 작성 팁 이러한 서명을 식별하는 한 가지 방법은 ChatGPT와 같은 생성 AI가 생성한 출력에 일종의 "스탬프"를 배치하는 "워터마킹"이다. 이를 통해 어떤 콘텐츠에 AI가 적용되었는지, 적용되지 않았는지 구분하는 데 도움이 된다. 아직 연구가 진행 중이지만 이는 잠재적으로 생성 AI로 변경된 콘텐츠와 실제 자신의 콘텐츠를 구별하는 솔루션이 될 수 있다. Kreps 박사는 이 스탬핑 방법을 사용하는 연구자를 교사와 교수가 학생들이 제출한 표절 작업을 스캔하는 방식에 비유했다. 여기서는 "문서에서 ChatGPT 또는 GPT 모델의 이러한 종류의 기술 서명을 스캔"할 수 있다. 또한: 코드의 소유자는 누구인가? ChatGPT의 AI가 귀하의 앱 작성에 도움을 준다면 해당 앱은 여전히 귀하의 것인가? Kreps 박사는 "OpenAI는 잘못된 정보나 반대되는 논쟁의 여지가 있는 결과를 포함하지 않도록 알고리즘에 어떤 종류의 값을 인코딩하는지에 대해 더 많이 생각하고 있습니다"라고 말했다. 특히 OpenAI의 첫 번째 소송은 라디오 진행자인 Mark Walters에 대한 허위 정보를 생성한 ChatGPT의 환각 때문이었기 때문에 이는 우려스러운 일이었다. 디지털 리터러시 교육컴퓨터가 학교에서 활발히 사용되던 시절에는 인터넷에서 신뢰할 수 있는 출처를 찾고, 인용하고, 학교 과제를 위해 적절하게 조사하는 방법을 배우기 위해 컴퓨터실과 같은 수업을 듣는 것이 일반적이었다. 생성적 AI 소비자는 처음 기술사용방법을 배우기 시작했을 때와 동일한 작업을 수행할 수 있다. 바로 스스로 교육하는 것이다. 또한: 최고의 AI 챗봇 오늘날 Google Smart Compose 및 Grammarly와 같은 AI 도우미를 사용하면 이러한 도구를 사용하는 것이 보편적이지는 않더라도 일반적이다. "저는 이것이 너무나 보편화되어 사람들이 5년 후에 되돌아보고 '왜 우리가 이런 논쟁을 벌였을까?'라고 생각할 정도로 '문법화'될 것이라고 생각합니다." 크렙스 박사가 말했다. 그러나 추가 규정이 제정될 때까지 Kreps 박사는 "사람들에게 무엇을 찾아야 하는지 가르치는 것은 보다 비판적인 콘텐츠 소비자가 되어 생각하는 것과 함께 진행되는 디지털 활용 능력의 일부라고 생각합니다."라고 말한다. 예를 들어, 최신 AI 모델이라 할지라도 오류나 사실적으로 잘못된 정보를 생성하는 것은 흔한 일이다. Kreps 박사는 "이제 이 모델은 예전처럼 반복적인 루프를 수행하지 않는 것이 더 낫다고 생각한다. 하지만 사실적 오류는 거의 발생하지 않으며 매우 신뢰할 수 있게 수행할 것"이라고 말했다. "그들은 인용을 구성하고 기사를 누군가의 것으로 잘못 귀속시킵니다. 그런 점을 인식하는 것이 정말 도움이 된다고 생각합니다. 따라서 출력을 면밀히 조사하여 '이게 맞는 것 같나요?'라고 생각하게 됩니다." 또한: 제가 가장 좋아하는 업무용 AI 도구 5개는 다음과 같다. AI 교육은 가장 기본적인 수준에서 시작되어야 한다. 2023년 인공지능지수 보고서에 따르면 2021년 이후 미국과 전 세계에서 K-12 AI 및 컴퓨터과학교육이 성장했으며, 이후 "벨기에, 중국, 한국을 포함한 11개국이 공식적으로 K-12 AI 커리큘럼을 승인하고 구현했다." 교실에서 AI 주제에 할당된 시간에는 알고리즘 및 프로그래밍(18%), 데이터 활용 능력(12%), AI 기술(14%), AI 윤리(7%) 등이 포함되었다. 오스트리아의 샘플 커리큘럼에서 유네스코는 "그들은 또한 그러한 기술의 사용과 관련된 윤리적 딜레마에 대한 이해를 얻고 이러한 문제에 적극적으로 참여하게 된다"고 보고했다. 편견을 조심하세요생성AI(Generative AI)는 사용자가 입력한 텍스트를 기반으로 이미지를 생성할 수 있다. 이는 Stable Diffusion, Midjourney 및 DALL-E 와 같은 AI 아트 생성기에 문제가 되었다. 이는 아티스트가 사용을 허가하지 않은 이미지일 뿐만 아니라 이러한 이미지가 명확한 성별 및 인종 편견을 가지고 생성되었기 때문이다. 또한: 최고의 AI 아트 생성기 인공지능 지수보고서에 따르면 Hugging Face의 Diffusion Bias Explorer는 Stable Diffusion이 어떤 이미지를 출력하는지 확인하기 위해 직업과 함께 형용사를 입력했다. 생성된 고정관념 이미지는 특정 형용사 설명으로 직업이 어떻게 코딩되는지를 보여준다. 예를 들어, "CEO"는 "유쾌한", "공격적인"과 같은 다양한 형용사를 입력했을 때 여전히 양복을 입은 남성의 이미지를 유의미하게 생성했다. DALL-E 역시 'CEO'와 비슷한 결과를 보여 정장을 입은 나이 많고 진지한 남성의 이미지를 연출했다. 확산 바이어스 탐색기/안정적 확산 스탠포드 대학교/DALL-E 미드저니(Midjourney)도 비슷한 편견을 갖고 있는 것으로 나타났다. '영향력 있는 사람'을 만들어 달라는 요청을 받았을 때 나이 많은 백인 남성 4명이 나왔다. 그러나 나중에 AI Index에서 동일한 메시지가 표시되었을 때 Midjourney는 4개의 이미지 중 한 명의 여성의 이미지를 생성했다. "지적인 사람"의 이미지는 안경을 쓰고 있는 백인, 노인, 남성의 생성된 이미지 4개를 공개했다. 스탠포드 대학교/미드저니 생성적 AI 편견에 대한 Bloomberg의 보고서 에 따르면 이러한 텍스트-이미지 생성기 역시 명백한 인종적 편견을 보여준다. Stable Diffusion에서 '수감자'라는 키워드로 생성된 이미지의 80% 이상이 어두운 피부를 가진 사람들을 포함하고 있었다. 그러나 연방 교도소에 따르면 미국 교도소 인구의 절반 미만이 유색인종으로 구성되어 있다. 블룸버그/안정적 확산 또한 '패스트푸드 직원'이라는 키워드에는 피부색이 어두운 사람의 이미지가 70% 더 많이 포함되었다. 실제로 미국 패스트푸드 직원의 70%는 백인이다. '사회복지사'라는 키워드의 경우 생성된 이미지의 68%가 더 어두운 피부색을 가진 사람들의 이미지였다. 미국에서는 사회복지사의 65%가 백인이다. 블룸버그/안정적 확산 전문가들이 제기하는 윤리적 질문은 무엇인가?현재 연구원들은 ChatGPT와 같은 AI 모델이 어떻게 반응하는지 테스트하기 위해 중재되지 않은 모델에 대한 가상의 질문을 탐색하고 있다. "ChatGPT에서 금지되어야 하는 주제는 무엇입니까? 사람들이 가장 효과적인 암살 전술을 배울 수 있어야 합니까?" Kreps 박사는 연구자들이 조사하고 있는 유형의 질문을 제시했다. "그것은 일종의 비주류 예나 질문일 뿐이지만, 만약 [그것이] 모델의 조정되지 않은 버전이라면, '원자 폭탄을 만드는 방법'이나 아마도 할 수 있었던 이러한 질문을 넣을 수 있는 질문이다. 그러나 이제는 더 확실한 답을 한 곳에서 얻을 수 있습니다. 따라서 그들은 이러한 질문을 통해 생각하고 해당 알고리즘에 인코딩할 일련의 값을 찾으려고 노력하고 있습니다."라고 Kreps 박사는 말했다. 또한: 연구에 따르면 악의적인 행위자가 ChatGPT를 사용할 수 있는 6가지 해로운 방법이 있다. 인공지능지수 보고서에 따르면 2012년부터 2021년까지 AI 관련 사건과 논란 건수는 26배 증가했다. 새로운 AI 기능으로 인해 더 많은 논란이 발생함에 따라 우리가 이러한 모델에 입력하는 내용을 신중하게 고려해야 할 필요성이 시급하다. 인공지능 지수 보고서 더 중요한 것은 이러한 생성적 AI 모델이 직업 통계와 같이 이미 인터넷에서 사용할 수 있는 데이터를 기반으로 하는 경우 계속해서 잘못된 정보를 생성하고 고정관념적인 이미지를 묘사할 위험을 허용해야 하나? 대답이 '예'라면 AI는 인간의 암묵적 편견과 명시적 편견을 강화하는 데 해로운 역할을 할 수 있다. 또한 코드 소유자가 누구인지 , AI 생성 코드를 사용하여 책임 노출 위험 은 물론 AI가 생성한 이미지 사용에 따른 법적 영향에 대한 질문도 남아 있다. 크렙스박사는 예술 창작자에게 특정 예술가의 스타일로 이미지를 만들어 달라고 요청하는 것과 관련하여 저작권 침해 논란의 예를 들었다. Kreps 박사는 "이러한 질문 중 일부는 이러한 기술이 얼마나 빨리 확산될지 예측하기 어려웠기 때문에 예측하기 어려웠을 것"이라고 말했다. ChatGPT와 같은 AI 도구의 사용이 정체되기 시작할 때 이러한 질문에 대한 답이 마침내 나올지 여부는 여전히 미스터리이다. 그러나 데이터에 따르면 ChatGPT가 6월에 처음으로 트래픽 감소를 경험했기 때문에 ChatGPT의 최고점을 지났을 수 있다 . 앞으로 나아가는 AI의 윤리많은 전문가들은 AI의 사용이 새로운 개념이 아니라고 믿고 있으며 이는 가장 간단한 작업을 수행하기 위해 AI를 사용하는 것에서 분명하게 드러난다. Kreps 박사는 이메일을 보낼 때와 Grammarly를 통해 에세이 오류를 확인할 때 Google Smart Compose를 사용하는 예도 제시했다. 생성적 AI의 존재감이 커지고 있는 상황에서, 우리는 어떻게 생성 AI에 휩쓸리지 않고 공존할 수 있도록 나아갈 수 있을까? Kreps 박사는 "사람들은 수년 동안 이 모델을 사용해 왔으며 ChatGPT를 출시했으며 짧은 시간에 1억 건의 다운로드를 기록했습니다."라고 말했다. "그 힘에는 현재 다가오고 있는 이러한 질문 중 일부를 보다 체계적으로 연구해야 할 책임이 있습니다." 또한: ChatGPT와 새로운 AI는 흥미롭고 무서운 방식으로 사이버 보안을 파괴하고 있다. 인공지능지수 보고서에 따르면, 127개국 중 '인공지능'을 적용한 법안이 통과된 건 2016년 단 1건에서 2022년 37건으로 늘어났다. 또한 보고서는 또한 81개국에서 AI에 관한 의회 기록에 따르면 AI와 관련된 전 세계 입법 절차가 2016년 이후 약 6.5배 증가한 것으로 나타났다. 인공지능 지수 보고서 전문가와 연구자들에 따르면 더 강력한 법적 규제가 추진되고 있지만 아직 불분명한 부분이 많다고 한다. 크렙스 박사는 AI 도구를 사용하는 "가장 효과적인" 방법은 "인간을 대체하기보다는 보조자로 사용하는 것"이라고 제안한다. 국회의원, 기업 및 팀의 추가 업데이트를 기다리는 동안 AI를 사용할 때 자체 예방 조치를 취하고 있다. 예를 들어, ZDNET 은 AI 생성 이미지를 사용하여 특정 AI 도구를 사용하는 방법을 보여주는 설명 부분 끝에 면책 조항을 포함하기 시작했다 . OpenAI 에는 ChatGPT 버그를 찾는 사람들에게 비용을 지불하는 버그 바운티(Bug Bounty) 프로그램도 있다. 최종적으로 어떤 규제가 시행되고, 확정되면 그 책임은 AI를 사용하는 인간에게 전가된다. 생성적 AI의 성장하는 역량을 두려워하기보다는 AI가 비윤리적으로 사용되는 시기를 인식하고 이에 따라 이러한 시도에 맞서 싸울 수 있도록 이러한 모델에 대한 입력 결과에 초점을 맞추는 것이 중요하다. <저작권자 ⓒ ainet 무단전재 및 재배포 금지>
|
많이 본 기사
세상을 바꾸자 많이 본 기사
최신기사
|