내년에는 인공지능과 채용과 관련해 일종의 당혹스러운 재난이 닥칠 것이다.
이는 후보자와 채용 담당자 모두가 AI를 과도하게 사용하면 적어도 하나의 유명 회사가 존재하지 않는 후보자를 고용하고 적어도 하나의 기업이 존재하지 않는 후보자를 위해 실제 후보자를 고용하게 될 것이라고 예측한 Forrester의 2024년 예측에 따른 것.
Forrester의 업무미래팀 부사장 겸 수석 분석가인 JP 가운더는 “인재관리 및 채용에 약간의 AI 문제가 있을 것이라고 생각합니다.”라고 말한다. "AI는 이러한 놀랍고 새롭고 마법 같은 순간을 모두 만들 수 있지만, 상황이 약간 혼란스러워지기 시작하는 대혼란을 만들기도 합니다."
거짓 후보자가 균열을 뚫고 빠져
나갈 수 있는 방법 가운더는 이 "장난"과 "혼란"이 일어날 수 있는 두 가지 방법을 구상한다.
보다 간단한 시나리오는 AI를 사용하여 채용공고에 자동으로 응답하는 후보자와 관련되며, 채용공고는 역할을 수락한 후에도 계속 실행된다. 결국 이러한 지원서 중 하나가 성공하여 회사가 시장에 나와 있지 않은 후보자를 고용하게 될 수도 있다.
“그것은 지루한 버전입니다.”라고 가운더는 말한다. 더 흥미로운 가능성은 후보자가 Generative AI를 사용하여 성공확률을 극대화하기 위해 진실을 왜곡하는 이력서와 자기 소개서를 작성하는 것이다. 그는 기술이 가능한 가장 매력적인 응용프로그램을 만드는 데 사용되어 편견을 피하기 위해 자격 증명을 조작하고 심지어 이름을 변경하는 시나리오를 상상한다.
“당신이 인종적으로 소외된 이름을 가지고 있고 고용주가 당신의 이름 때문에 당신을 차별할 가능성이 더 높다는 것을 알고 있다고 가정해 봅시다. 이는 많은 연구에서 입증되었습니다. 따라서 생성 AI가 당신과 유사한 이력서를 작성하게 했을 수도 있지만 그들은 실제로는 당신이 아닙니다.”라고 그는 말합니다. “완전한 거짓말은 아니지만, 당신은 아니거든요.”
가짜 채용정보가 실제 목록에 나올 수 있는 방법
한편, 고용주 측에서는 채용 게시물을 작성하고 후보자를 선별하고 경우에 따라 채용 결정을 내리는 데 생성 AI 및 기타 자동화 도구에 대한 의존도가 높아지면 고용주가 결과를 초래할 수 있다. 실제로 존재하지 않는 직업을 게시하는 것이다.
Forrester 연구에 따르면 AI 의사결정자의 33%가 향후 1년 동안 회사에서 채용AI 사용을 확대할 것이라고 밝혔으며, 또 다른 29%는 이 기술을 실험하고 있다고 밝혔다.
가운더는 AI 관련 채용 사고가 발생할 가능성이 가장 높은 기회는 내부 인사 소프트웨어와 외부 채용 서비스 간의 인계 과정이라고 말한다.
“어딘가에는 첫 번째 시스템에서 일자리를 선택하려고 시도한 후 완전히 다른 일자리를 생성하거나 두 개의 일자리를 생성하거나 그렇지 않은 일자리를 생성하는 생성적 AI 시스템이 있었다. 실제로는 원래 시스템으로 거슬러 올라갑니다.”라고 그는 말한다. "그것은 꽤 가능한 일입니다. 특히 채용을 위해 제3자를 이용하는 경우에는 더욱 그렇다. 이러한 일은 더욱 자주 발생한다."
일부 혼란은 불가피하다.
가운더는 고용 방정식의 양쪽에서 AI 활용이 증가할 것으로 예상되는 상황에서 향후 12개월 이내에 일종의 환각, 오류 또는 사고가 발생할 것으로 예상하며 혼자가 아니라고 덧붙였다.
미래학자 싱크탱크인 다빈치(DaVinci)의 토머스 프레이(Thomas Frey) 전무이사는 “아직은 AI의 지저분한 초기 단계이고, 반대편에서 좋은 결과를 얻으려면 이런 종류의 지저분함을 헤쳐 나가야 할 것”이라고 말했다. "우리는 실제로 다음 단계의 속임수를 보게 될 것이다."
프레이는 자동차가 오늘날 우리가 사용하는 기술에 도달하는 데 120년이 걸렸다고 설명하며, 1900년대 자동차 소유자는 필요에 따라 도구상자를 들고 여행해야 하는 경우가 많았다고 덧붙였다.
마찬가지로 그는 AI에 대해 앞으로 많은 수정과 미세 조정이 있을 것으로 예상하며, 이를 통해 미래에는 더 좋고 효과적인 도구가 탄생할 것이라고 믿는다. Frey는 결국 일부 AI 솔루션이 다른 사람의 활동을 모니터링하고 확인하기 위해 명시적으로 개발될 것이라고 덧붙였다.
"머지않아 우리는 AI의 '진실 경찰' 역할을 하는 여러 교차 검증시스템을 보게 될 것입니다. 여기서 하나의 AI 시스템은 다른 AI 시스템의 모든 불일치를 표시하는 데 사용됩니다."라고 그는 말한다.
그러나 그때까지 프레이는 어느 정도의 대혼란이 예상되어야 한다고 말했다.
더 많은 것, 더 빠른 것
대기업이 가짜 직원을 고용할 가능성이나 실제 직원이 가짜 채용 제의를 수락할 가능성은 공상과학소설처럼 들리지만 이력서나 입사 지원서를 과장하는 것은 현대의 발명품이 아니다.
실제로 인디드의 책임있는 AI책임자인 트레이 코지(Trey Causey)는 이 기술이 우리 인간이 항상 하던 일을 더 빠르게 할 수 있게 해줄 뿐이라고 강조한다.
“그것은 아주 오래된 이야기입니다.”라고 그는 말한다. "사람들이 자격 증명이나 졸업장을 발명한 세간의 이목을 끄는 사례가 많이 있었으며, LLM(대형 언어 모델)을 사용하여 서신을 생성하는 페르소나를 만드는 사람을 생각하는 것은 그리 무리한 일이 아니다."
헤드라인에 등장하지 않는 방법
Causey는 당혹감을 피하기 위해 특히 채용과 관련하여 어느 정도 인간의 감독을 유지하라고 조직에 조언한다.
“인간의 감독을 제거하거나 제거할 가능성이 있는 새로운 기술이 개발되는 것을 볼 때마다 특히 영향력 있는 결정을 다룰 때 신중하게 행동해야 합니다.”라고 그는 말한다. "LLM이 직무 설명을 작성한 후 사람의 검토 없이 실제 채용 사이트에 게시하는 위치에 있고 싶지는 않을 것입니다."
Causey는 또한 채용 및 채용 시 AI 활용과 관련된 위험을 가장 잘 최소화하는 방법을 파악하기 위해 업계 표준, AI 공급업체 및 제3자 리소스를 살펴볼 것을 권장한다.
“이런 종류의 비영리 중심 표준 설정 관행을 살펴보는 것은 최소한 올바른 질문을 하게 만드는 방법이 될 수 있습니다.”라고 그는 말한다. “공급업체에 물어보세요. 기술을 어떻게 검증하나? 편견에 대해 어떻게 생각하시나요? 귀하의 관할권에서는 AI 관련 법률을 어떻게 준수하고 있나? 전문적인 인재를 고용하지 않고도 스스로 무장할 수 있는 질문들이다.”
자레드 린드존 www.fastcompany.com