영화에서 AI가 생성한 이미지의 윤리
많은 창작 산업 종사자들이 AI가 자신의 일자리를 빼앗을까봐 걱정하는 반면, 오스카상을 수상한 영화 감독 제임스 카메론은 이 기술을 받아들이고 있다. 카메론은 아바타와 터미네이터 영화, 타이타닉을 만든 것으로 유명하다. 이제 그는 생성 AI 분야의 선두 주자인 Stability.AI의 이사회에 합류했다.
카메론의 터미네이터 영화에서 스카이넷은 자기 인식을 한 인공일반지능(AGI)으로, 이를 비활성화하려는 인간을 파괴하기로 결심했다. 첫 번째 영화가 나온 지 40년 후, 감독은 편을 바꾸고 AI와 동맹을 맺은 것으로 보인다. 그렇다면 이 일의 배후에는 무엇이 있을까?
약 10억 달러의 가치가 있는 Stability.AI는 최근까지 노팅힐의 닭집 위에 본사를 두고 있었다. 사용자의 텍스트 요청(또는 프롬프트)에서 하이퍼리얼 사진을 만드는 텍스트-이미지 도구인 Stable Diffusion으로 유명하다. 이제 AI가 만든 비디오로 이동하고 있다.
카메론은 그들의 작업이 영화 시각 효과의 잠재적 게임 체인저로 보는 듯하다. "나는 30년 전 CGI의 최전선에 있었고, 그 이후로 최첨단을 유지해 왔다. 이제 생성 AI와 CGI 이미지 생성의 교차점이 다음 물결이다."라고 그는 Stability.AI의 보도 자료에서 이렇게 언급했다.
영화 제작자는 촬영하는 실사 현실에 특수 효과(SFX)와 시각 효과(VFX)라는 두 가지 효과를 추가한다. 이는 영화 제작의 두 가지 다른 단계에서 이루어진다. 촬영 중 SFX는 스펙터클을 만드는 데 사용되는 모든 물리적 효과이다. 폭발, 피의 폭풍, 차량 충돌, 보철물, 세트의 기계적 움직임이다.
후반 작업 중 VFX는 실사 촬영 이미지에 새로운 요소를 추가하는 디지털 시스템이다. 컴퓨터 생성 이미지(CGI), 합성, 모션 캡처 렌더링이다. 또한 별도로 촬영한 이미지를 결합한다.
최근 영화 기술인 가상 프로덕션이 발전하면서 일부 VFX 기법이 영화 촬영에 도입되었다. 이 프로세스는 비디오 게임 제작을 위해 개발된 기술인 "게임 엔진"으로 알려진 것을 사용한다. 배우들은 공연자 주변에 역동적이고 사전 제작된 가상 세계를 스크린으로 보여주는 정교한 LED 벽 앞에서 촬영된다.
SFX의 실제 물리성은 인공지능이 여기서 매우 제한적인 영향을 미칠 것임을 의미한다. AI가 변형 효과를 낼 수 있는 것은 VFX에서이다. 나는 2024년 10월 30일에 열리는 공개 강연에서 딥페이크와 영화 속 AI에 대해 이야기할 것이다. '영화와 미디어 속 딥페이크와 AI: 보는 것이 믿는 것이 아니다'.
나는 또한 내가 공동으로 이끄는 그룹인 합성 미디어 연구 네트워크를 통해 이 주제를 조사하고 있다. 이 그룹은 영화 창작자, 학계 연구자, AI 개발자를 하나로 모은다. 나는 이 집단의 일원인 크리스찬 다킨(Christian Darkin)과 이야기를 나누었다. 그는 현재 Deep Fusion Films의 크리에이티브 AI 책임자로 일하고 있는 VFX 아티스트이다.
그는 VFX에 대한 생성 AI의 영향을 후반 작업에서 무한한 선택권을 만드는 것으로 본다. 미래에는 배우를 촬영하는 것이 시작일 뿐이다. "나중에 배경을 넣고, 카메라 각도를 바꾸고, 표정을 바꾸고, 연기의 감정을 높이고, 목소리, 의상, 사람들의 얼굴, 모든 것을 바꿀 것이다."라고 크리스찬이 나에게 말했다.
영화 산업이 VFX에 AI를 통합한 주요 동기 중 하나는 간단하다. 기존 VFX의 비용이다. 블록버스터 영화의 엔딩 크레딧을 본 적이 있다면 그들이 고용하는 VFX 기술자의 수를 보았을 것이다. 생성 AI는 품질 저하 없이 멋진 화면 이미지를 얻을 수 있는 저렴한 방법을 제공한다.
그 결과 많은 VFX 기술자가 일자리를 잃을 것이라는 의미이다. 하지만 이런 역할을 하는 사람들과 나눈 대화에서, 그들은 고도로 숙련되고 기술에 정통하기 때문에 새로운 기술 분야에서 새로운 역할을 맡을 가능성이 크다는 생각이 들었다.
AI 기술의 윤리
미디어 크리에이티브는 이제 이미지, 텍스트, 음성 및 음악을 만드는 새로운 방법을 제공하는 방대한 양의 생성 AI 도구를 제공받는다. 그러나 기술과 관련된 핵심 문제는 여전히 해결해야 한다. 이러한 AI 도구가 윤리적으로 만들어졌을까?
ChatGPT에서 Midjourney, Runway에 이르기까지 각 생성 AI 도구는 종종 인터넷에서 얻은 방대한 양의 데이터에 노출되어 작업을 개선하는 데 도움이 되는 기반 모델에 기반을 두고 있다. 이 프로세스를 "훈련"이라고 한다.
AI 개발자는 "크롤러"를 사용하여 방대한 양의 훈련 데이터 저장소를 구축한다. 크롤러는 유용한 자료를 인터넷에서 검색하고 수조 개의 파일을 다운로드하여 자체적으로 사용하는 봇이다. 여기에는 저작권을 보유한 아티스트가 만든 책, 음악, 이미지, 낭독 및 비디오가 포함될 수 있다.
Stability.ai는 영국 법원에서 저작권을 둘러싼 법적 소송에 연루되었다. 사진과 사진을 대량으로 보유한 Getty Images는 현재 이 회사를 고소하고 있다.
Stability.ai의 전 임원인 에드 뉴턴-렉스(Ed Newton-Rex)는 2023년 11월에 회사가 모델을 훈련하기 위해 창의적인 콘텐츠를 무료로 수집하고 "공정 사용"이라고 주장하면서 사임했다.
아마도 카메론은 AI 개발자들이 자신들을 상대로 한 소송에서 승소하고 기술적 궤적을 계속할 것이라고 생각할 것이다. 나는 Stability.ai에 카메론이 회사에 합류하기 전에 그들이 기초 모델의 훈련 데이터로 사용하기 위해 인터넷에서 그의 창의적인 자료를 수집했는지 물었다. 그리고 그들은 카메론의 허락을 받았을까?
그들의 답변은 다음과 같았다. "Stability AI의 훈련 데이터 출처에 대해서는 언급할 수 없다."
카메론의 터미네이터 영화는 불량 AI의 잠재적인 재앙적 영향에 대해 경고했다. 하지만 감독은 이제 자신이 우승하는 말에 앉아 있다고 분명히 생각한다.
글쓴이: Dominic Lees, 레딩 대학교 영화 제작 부교수