[AI 모델을 단순히 챗봇과 비서 역할을 하는 것을 넘어 확장하기 위해 노력] 개발자들이 코딩 시연을 녹화하려고 하는 동안 Anthropic의 현재 주력 AI인 Claude 3.5 Sonnet의 최신 버전이 궤도를 벗어나 몇 가지 "재미있는" 순간을 만들어냈다
AI 모델을 단순히 챗봇과 비서 역할을 하는 것을 넘어 확장하기 위해 노력 개발자들이 코딩 시연을 녹화하려고 하는 동안 Anthropic의 현재 주력 AI인 Claude 3.5 Sonnet의 최신 버전이 궤도를 벗어나 몇 가지 "재미있는" 순간을 만들어냈다고 회사는 발표에서 밝혔다. 머신러닝 모델을 의인화하는 것은 위험하지만, 만약 이 사람이 인간 직원이라면, 우리는 그들을 직장에서 지루함을 느끼는 말기 사례로 진단할 것이다. 비디오에서 볼 수 있듯이 Claude는 코드 작성을 포기하기로 결정하고 Google을 열고 설명할 수 없는 이유로 옐로스톤 국립공원의 아름다운 사진을 탐색한다. 또 다른 데모 시도에서 Claude는 진행 중인 긴 화면 녹화를 실수로 중단하여 모든 영상이 손실되었다고 Anthropic은 말했다. AI가 의도한 것은 아니라고 확신한다. 업그레이드된 클로드 3.5 소네트(Claude 3.5 Sonnet)는 작업을 자율적으로 수행하도록 설계된 생산성 중심의 AI 모델을 설명하는 광범위한 용어인 "AI 에이전트"를 개발하기 위한 Anthropic의 시도이다. 많은 기업들이 AI 모델을 단순히 챗봇과 비서 역할을 하는 것을 넘어 확장하기 위해 노력하고 있으며, 그 중 Microsoft는 최근 자체 AI 에이전트 기능을 출시했다. 아마존의 지원을 받는 이 스타트업은 클로드를 통해 최신 모델이 이제 커서를 움직이고 키 입력과 마우스 클릭을 입력하는 것과 같은 "사람이 하는 방식의 컴퓨터"를 사용할 수 있다고 자랑한다. 즉, Claude는 잠재적으로 전체 데스크톱을 제어하여 설치된 모든 소프트웨어 및 응용 프로그램과 상호 작용할 수 있다. 분명히 완벽함과는 거리가 멀다. 여느 AI 모델과 마찬가지로 신뢰성은 여전히 파악하기 어려우며, 잦은 환각은 Anthropic 스스로도 인정하듯이 현실이다. "현재 최첨단임에도 불구하고 Claude의 컴퓨터 사용은 여전히 느리고 종종 오류가 발생하기 쉽습니다"라고 회사는 말했다. "사람들이 일상적으로 컴퓨터를 사용하여 수행하는 많은 작업(드래그, 확대/축소 등)은 Claude가 아직 시도할 수 없습니다." Anthropic이 공유한 예제 오류는 대부분 무해했다. 그러나 Claude가 가지고 있다고 주장하는 자율성 수준을 감안할 때 안전성에 대해 질문하는 것이 공정하다. 예를 들어 AI 에이전트가 사진을 검색하는 것이 아니라 소셜 미디어를 열어 곁길로 빠지면 어떻게 될까? 또한 인간에 의해 오용될 수 있는 명백한 잠재력이 있다 - Anthropic이 다루고 있다는 것을 여러분이 알기를 원하는 위험이다. Anthropic은 "컴퓨터 사용은 스팸, 잘못된 정보 또는 사기와 같은 보다 친숙한 위협에 대한 새로운 벡터를 제공할 수 있기 때문에 안전한 배포를 촉진하기 위해 사전 예방적 접근 방식을 취하고 있습니다"라고 말했다. 여기에는 AI가 소셜 미디어에 게시하고 정부 웹사이트에 액세스하는 것과 같이 플래그가 지정된 활동을 수행하는 데 사용되는 시기를 식별하기 위한 새로운 분류자 구현이 포함된다. 그러나 더 많은 사람들이 새롭고 개선된 Claude를 사용함에 따라 컴퓨터 사용이 잘못되는 예가 더 많아질 것으로 예상된다. (Futurism) <저작권자 ⓒ ainet 무단전재 및 재배포 금지>
|
많이 본 기사
챗GPT와 AI, 로봇 많이 본 기사
최신기사
|