2년 전, 도쿄 대학의 쇼지 타케우치 교수와 동료들은 살아있는 인간 세포로 만든 생체공학적 피부로 모터화된 로봇 손가락을 성공적으로 덮었다.
이 개념 증명 활동이 더욱 실물과 유사한 안드로이드형 로봇뿐만 아니라 자가 치유, 터치 감지 덮개를 갖춘 로봇의 길을 열어줄 수 있기를 바랐다. 이 기술은 화장품 테스트 및 성형외과 의사 교육에도 사용될 수 있다.
피부로 덮인 손가락은 확실히 인상적인 성과였지만 피부는 어떤 식으로든 기본 손가락과 연결되지 않았다. 기본적으로 손가락을 감싸는 수축된 덮개였다. 대조적으로, 자연적인 인간 얼굴 피부는 결합 조직으로 구성된 인대에 의해 밑에 있는 근육 조직에 연결된다.
무엇보다도 이 배열을 통해 우리는 다양한 표정을 표현할 수 있다. 또한 피부는 밑에 있는 조직 과 함께 움직이기 때문에 피부가 뭉쳐져 얼굴 움직임을 방해하지 않는다. 같은 이유로 외부 물체에 걸려 손상될 가능성도 적다.
과학자들은 이전에 생체 공학적 피부를 합성 표면에 연결하려고 시도했는데, 일반적으로 표면 에서 튀어나온 작은 앵커를 통해 이루어졌다 . 그러나 이러한 포키 앵커는 피부의 외관을 손상시켜 피부가 매끄럽게 보이지 않게 한다. 또한 모두 중앙을 향하는 오목한 표면에서는 잘 작동하지 않는다.
이러한 한계를 염두에 두고 Takeuchi와 그의 팀은 최근 합성 표면에 만들어진 작은 V자형 천공을 기반으로 하는 새로운 피부 고정 시스템을 개발했다.
과학자들은 이러한 천공 배열을 통합한 인간 얼굴 주형을 만든 다음 콜라겐과 인간 피부 섬유아세포로 구성된 젤로 그 주형을 코팅했습니다. 후자는 피부의 결합 조직 생성을 담당하는 세포이다.
일부 젤은 천공으로 흘러내렸고 나머지는 몰드 표면에 머물렀다. 7일 동안 배양한 후 젤은 천공 내 조직을 통해 몰드에 단단히 고정된 인간 피부 덮개로 형성되었다.
두 번째 실험에서는 실리콘 고무 기질에 천공을 한 다음, 그 위에 젤을 바르고 배양했다. 최종 결과는 기질에 연결된 두 개의 막대를 움직여 미소를 지을 수 있는 단순화된 인간 피부 얼굴이었다.
말할 것도 없이, 이 기술을 실제로 살아있는 듯한 로봇에 활용하기 위해서는 아직 몇 가지 작업이 필요하다.
"우리는 땀샘, 피지선, 모공, 혈관, 지방 및 신경을 통합함으로써 더 두껍고 더 사실적인 피부를 만들 수 있다고 믿습니다."라고 Takeuchi는 말한다. "물론 소재뿐만 아니라 움직임도 중요한 요소입니다. 따라서 또 다른 중요한 과제는 정교한 액추에이터, 즉 근육을 로봇 내부에 통합하여 인간과 같은 표현을 만드는 것입니다." 이 연구에 관한 논문은 최근 Cell Reports Physical Science 저널에 게재되었다. 출처: 도쿄대학
BMW 공장에서 일하는 인공지능 로봇, 6개월 만에 놀라운 발전 보여주다
Figure의 휴머노이드 로봇, 새로운 영상 공개
6개월 전, 인공지능 스타트업 Figure는 빛나는 은색 휴머노이드 로봇이 BMW 제조 공장에서 첫 직장을 얻었다고 발표하며 화제가 되었다. 이 로봇은 이 행사를 위해 특별히 훈련되었으며, 최근 공개된 새로운 영상은 이 범용 작업자가 얼마나 멀리 왔는지 보여주고 있다.
다양한 하드웨어와 학습 방식, 공통된 목표
현재 개발 중인 AI 기반 휴머노이드 로봇은 하드웨어와 학습 방식이 매우 다양하지만, 모두 동일한 목표를 가지고 있다. 즉, 인간이 할 수 있는 모든 물리적 작업을 대신 수행하고, 그 작업을 더 저렴하고 일관되게 수행하는 것.
경제 성장과 인구 수치 분리 가능성 제시
이러한 로봇들이 더 많은 작업을 수행할 수 있게 됨에 따라, 관련 회사들은 더 많은 로봇을 판매할 수 있게 된다.
이는 잠재적으로 경제 성장을 인구 수치와 분리하고, 자원에 의해서만 제한되는 새로운 노동력의 원천을 열어줄 수 있다는 흥미로운 가능성을 제시한다.
놀라운 속도로 발전하는 하드웨어와 AI 모델
허황된 꿈처럼 들릴 수 있지만, 최신 하드웨어는 놀라울 정도로 뛰어난 성능을 보여주고 있다. 이 로봇을 훈련하고 제어하는 AI 모델은 아직 초기 단계이지만, 확실히 인상적인 속도로 발전하고 있다.
OpenAI 음성 엔진과 언어 모델 적용, 새로운 차원의 인간-로봇 상호 작용 가능성
이러한 로봇들이 OpenAI의 음성 엔진과 언어 모델을 사용하여 말을 하기 시작하면, 전통적인 산업용 로봇과 차별화되는 새로운 차원의 인간-로봇 상호 작용이 가능해질 것.
결론: 인공지능 로봇의 미래
Figure의 휴머노이드 로봇은 인공지능 기술이 제조업에 미치는 영향력을 보여주는 흥미로운 예시이다. 앞으로 이러한 로봇들이 어떻게 발전하고 우리 삶에 어떤 영향을 미칠지 지켜보는 것은 매우 흥미로운 일이 될 것이다.
Figure의 휴머노이드 로봇: BMW 제조 공장에서 새로운 시작
6개월 전, Figure는 빛나는 은색 휴머노이드 로봇이 BMW 제조 공장에서 첫 직장을 얻었다고 발표했다. 이 로봇은 이 행사를 위해 특별히 훈련받았으며, 최근 공개된 영상에서는 이 범용 작업자가 얼마나 멀리 왔는지를 보여준다.
현재 개발 중인 AI 기반 휴머노이드 로봇은 하드웨어와 학습 방법이 모두 다양하고 많지만, 모두 같은 목표에 집중한다. 즉, 인간이 할 수 있는 모든 물리적 작업을 대신 수행하고, 그 작업을 더 저렴하고 일관되게 수행하는 것이다.
이러한 로봇들은 더 많은 일을 배우고, 그들을 판매하는 회사들은 더 많은 로봇을 판매할 수 있다. 이는 잠재적으로 경제 성장을 인구 수치에서 분리하고, 자원에 의해 제한되는 노동의 원천을 열어낼 수 있는 가능성을 제시한다. 이러한 아이디어가 허황된 꿈처럼 들릴 수 있지만, 하드웨어는 놀라울 정도로 유능해 보인다. 이 로봇을 훈련하고 제어하는 AI 모델이 현재 유아 단계에 있지만, 인상적인 속도로 발전하고 있다는 점도 주목할 만하다.
이러한 기계가 OpenAI의 음성 엔진과 언어 모델을 사용하여 말을 하기 시작하면, 전통적인 산업용 로봇과 얼마나 다른지 실감하게 된다. 이는 산업 현장에서의 로봇 활용도를 새로운 차원으로 끌어올릴 것이다. Figure의 혁신적인 로봇은 미래의 제조업과 경제에 큰 변화를 가져올 잠재력을 지니고 있다.
로봇 혁명이 현실화됨에 따라, Figure와 같은 회사들이 AI 기술과 로봇 하드웨어의 결합을 통해 어떤 미래를 만들어나갈지 주목된다. 이는 단순한 기술 발전이 아닌, 인간과 로봇의 협업을 통해 경제와 사회의 변화를 이끌어낼 수 있는 중요한 한 걸음이 될 것이다.
영상: Figure 01 휴머노이드, BMW 조립 첫 임무 수행 훈련
거의 6개월 전, Figure는 빛나는 은색 휴머노이드 로봇이 BMW 제조 공장에서 첫 직장을 얻었다고 발표했다. 이 로봇은 이 행사를 위해 훈련을 받았고, 새로운 영상은 이 범용 작업자가 얼마나 멀리 왔는지 보여준다.
현재 개발 중인 AI 기반 휴머노이드 로봇은 하드웨어와 학습 방법이 모두 다양하고 엄청 많지만, 모두 같은 목표에 집중하고 있다. 즉, 인간이 할 수 있는 모든 물리적 작업을 대신 수행하고, 그 작업을 더 저렴하고 일관되게 수행하는 것.
그들이 하는 일을 더 많이 배울수록, 이 회사들은 더 많은 로봇을 판매할 수 있고, 잠재적으로 경제 성장을 인구 수치에서 분리하고 자원에 의해서만 제한되는 노동의 원천을 열어낼 수 있다. 허황된 꿈처럼 들리지만, 하드웨어는 놀라울 정도로 유능해 보이고, 이 로봇을 훈련하고 제어하는 AI 모델은 확실히 아직 유아 단계의 개발 단계에 있지만, 확실히 인상적인 속도로 발전하고 있는 듯하다.
이러한 기계가 OpenAI의 음성 엔진과 언어 모델을 사용하여 말을 하기 시작하면 전통적인 산업용 로봇과 얼마나 다른지 실제로 실감하게 된다.
진정한 범용 휴머노이드는 아직 먼 미래지만, 이를 만드는 회사들은 가능한 한 빨리 실제 고객 운영에서 간단하고 유용한 작업을 수행하도록 만들고 싶어한다. 실제 수익원보다는 데이터를 수집하고 고객에게 차세대 AI 직원과 함께 일하는 방법에 대해 교육하는 것이 더 중요할 것입니다. 하지만 어느 쪽이든 자동차 제조는 초기 휴머노이드 로봇 도입을 위한 핵심 산업인 듯하다.
예를 들어 Apptronik은 Mercedes와 계약을 맺고 Apollo 봇을 시험했습니다 . 이 분야의 유서 깊은 원조인 Boston Dynamics Atlas 로봇조차도 자동차 제조 작업을 위한 훈련을 하는 모습이 보였다.
물론 테슬라는 Optimus 봇을 훈련하고 테스트하고 초기 가치를 얻기 위한 자체의 거대한 자동차 생산 시설을 보유하고 있다. 그러나 Figure 설립자 Brett Adcock은 이러한 사내 접근 방식이 테슬라 로봇에 너무 관대한 것 같다고 생각하며, "실패하면 우리를 해고할 외부 고객을 확보하는 것은 Figure에 경쟁 우위가 될 것입니다."라고 트윗했다
오늘은 아래의 완전 자율 주행 'BMW Full Use Case' 비디오에서 Figure bot이 어떻게 훈련되는지 살펴보겠다.
이것은 우리가 본 가장 지구를 뒤흔드는 놀라운 휴머노이드 로봇 영상은 아니지만, 여기에는 긍정적인 점이 많이 있다. 01은 고무 끝 손가락으로 크고 복잡한 모양을 잡는 법을 배우고 있다. 물건에 부딪히지 않고 움직이는 법을 배우고 있습니다. 아직은 제 아이들에게 권장할 만한 기술은 아니지만.
구멍을 통과하는 데 필요한 두 개의 위치 고정 페그가 판으로 막혀 있는 상황에서도 큰 접시를 그 지그 위에 놓을 수 있다는 것은 결코 쉬운 일이 아니다.
두 개의 작은 조각을 각각 한 손으로 집어 올리는 것은 사람이 한 번에 두 개씩 하는 일이기 때문에 그다지 인상적이지 않다. 하지만 그것은 그것들이 잘못된 방향으로 놓여 있음을 올바르게 식별하고, 지그에 맞춰 방향을 정하고 정렬하고, 올바른 방향으로 튀어나오게 한다. 그리고 그것들이 제대로 놓여 있지 않다는 것을 알아차리면 손등으로 그것들을 제자리에 두드려서 자신의 오류를 수정한다.
반면에... 글쎄요, 한 건방진 YouTube 댓글러가 지적했듯이, 분명히 일당이 아니라 시간당으로 지불하고 있다. 하지만 Figure의 공로로, 이 회사는 분명히 영상 속도를 높이지 않고 있으며, 이런 종류의 동작은 시간이 지남에 따라 더 빠르고 매끄러워질 것.
이것은 위에 표시된 2월의 회사 첫 번째 실제 작업 과제 시연에서 크게 발전한 것처럼 보이지 않을 수 있다. 둘 다 "물건을 집어 올리고 내려놓는" 유형의 과제로 분류될 수 있으므로 이 업데이트는 혁신적이라기보다는 진화적이라고 느껴진다.
하지만 01은 확실히 훨씬 더 복잡하고 흥미로운 모양을 채택하고 있으며, 더 복잡한 그립이 필요하다. 그리고 그것은 단순히 컨베이어 벨트에 상자를 놓는 것이 아니라, 정밀한 지그에 놓기 위해 복잡한 부품을 정렬하는 것이다.
영상은 "BMW 그룹, 스파르탄버그 공장"으로 마무리하지만, Figure의 자체 건물에서 테스트 장비로 촬영한 것 같다. 그렇다고 가정하면, 01이 BMW 생산 현장에서 언제쯤 작동을 시작할지는 확실하지 않다.
이 로봇들이 실제 작업에서 어떤 성과를 보이는지 보는 것은 흥미로울 것입니다. 처음에는 느리고 다루기 힘들고 제한적일 것이지만, AI 행동 모델이 발전함에 따라 동작과 기술 습득 속도가 모두 빨라질 것이다.
하지만 세계를 장악하고, 수백만 대가 생산되고, 사회 전반에 걸쳐 거대한 변화를 일으키려면 오늘날의 고기와 뼈로 이루어진 노동자들보다 분명한 경제적 이점을 증명해야 한다. 바로 여기서 상황이 정말 흥미로워지기 시작할 것! 출처: 피규어
현실적인 가상 쥐를 통해 본 로봇의 민첩성 향상
쥐는 놀라울 정도로 민첩한 동물이다. 커튼을 타고 올라가고, 높은 선반을 뛰어내리고, 복잡한 지형을 가로질러 달려갈 수 있다. 예를 들어, 이상한 모양의 물건이 쌓인 지하실을 정신 나간 속도로 달려갈 수 있다.
반면 로봇은 민첩하지 않다. 최근 AI가 움직임을 안내하기 위해 발전했지만, 로봇은 여전히 뻣뻣하고 서투르며, 특히 새로운 환경을 탐색할 때 그렇다.
로봇을 더 민첩하게 만들려면 생물학적 뇌에서 추출한 알고리즘으로 제어해 보는 건 어떨까? 우리의 움직임은 물리적 세계에 뿌리를 두고 있으며, 경험에 기반을 두고 있다. 이 두 가지 구성 요소를 통해 우리는 다양한 주변 환경을 쉽게 탐험할 수 있다.
하나의 큰 장애물이 있다. 수십 년간의 연구에도 불구하고 신경과학자들은 아직 뇌 회로가 어떻게 움직임을 제어하고 조정하는지 정확히 알아내지 못했다. 대부분의 연구에서는 신경 활동을 측정 가능한 운동 반응(예: 손의 경련이나 다리를 들어올리는 속도)과 연관시켰다. 다시 말해, 우리는 움직임을 설명할 수 있는 뇌 활성화 패턴을 알고 있다. 하지만 어떤 신경 회로가 처음에 그러한 움직임을 유발할까?
우리는 디지털 형태로 재창조를 시도함으로써 답을 찾을 수 있다. 유명한 물리학자 리처드 파인만이 말했듯이, "내가 만들 수 없는 것은 이해하지 못한다."
이번 달, Google DeepMind와 Harvard University는 복잡한 움직임을 제어하는 신경 회로를 파악하기 위해 현실적인 가상 쥐를 만들었다. 인공 신경망으로 구성된 쥐의 디지털 뇌는 열린 경기장에서 뛰어다니는 실제 쥐의 수십 시간 분량의 신경 기록으로 훈련되었다.
연구팀은 인공 뇌의 활성화 패턴을 살아 숨쉬는 동물의 신호와 비교한 결과, 디지털 뇌가 실제 쥐의 신경 활성화 패턴을 예측하고 동일한 행동(예를 들어, 뒷다리로 뛰거나 일어서는 행동)을 생성할 수 있다는 것을 발견했다.
하버드의 연구 저자인 벤스 올베츠키 박사는 보도자료에서 협업이 "환상적"이라고 말했다. "DeepMind는 생체역학적 에이전트가 복잡한 환경을 돌아다니도록 훈련하는 파이프라인을 개발했다. 우리는 단순히 그러한 시뮬레이션을 실행하고 이러한 네트워크를 훈련할 리소스가 없었다."
이 연구는 생물학적 뇌의 메커니즘을 더 잘 이해하고, 이를 통해 로봇의 민첩성을 향상시킬 수 있는 새로운 길을 여는 중요한 진전을 이루었다.
구글 딥마인드의 AI 쥐 뇌, 로봇을 실제 쥐처럼 뛰어다니게 할 수 있다
쥐는 놀라울 정도로 민첩한 동물이다. 커튼을 타고 올라가고, 높은 선반을 뛰어내리고, 복잡한 지형을 가로질러 달려갈 수 있다. 예를 들어, 이상한 모양의 물건이 쌓인 지하실을 정신 나간 속도로 달려갈 수 있다.
반면 로봇은 민첩하지 않다. 최근 AI가 움직임을 안내하기 위해 발전했지만, 로봇은 여전히 뻣뻣하고 서투르며, 특히 새로운 환경을 탐색할 때 그렇다.
로봇을 더 민첩하게 만들려면 생물학적 뇌에서 추출한 알고리즘으로 제어해 보는 건 어떨까? 우리의 움직임은 물리적 세계에 뿌리를 두고 있으며 경험에 기반을 두고 있다. 이 두 가지 구성 요소를 통해 우리는 다양한 주변 환경을 쉽게 탐험할 수 있다.
하나의 큰 장애물이 있다. 수십 년간의 연구에도 불구하고 신경과학자들은 아직 뇌 회로가 어떻게 움직임을 제어하고 조정하는지 정확히 알아내지 못했다. 대부분의 연구에서는 신경 활동을 측정 가능한 운동 반응(예: 손의 경련이나 다리를 들어올리는 속도)과 연관시켰다. 다시 말해, 우리는 움직임을 설명 할 수 있는 뇌 활성화 패턴을 알고 있다. 하지만 어떤 신경 회로가 처음에 그러한 움직임을 유발할까?
우리는 디지털 형태로 재창조를 시도함으로써 답을 찾을 수 있습니다. 유명한 물리학자 리처드 파인만이 말했듯이, "내가 만들 수 없는 것은 이해하지 못한다."
이번 달, Google DeepMind와 Harvard University는 복잡한 움직임을 제어하는 신경 회로를 파악하기 위해 현실적인 가상 쥐를 만들었다. 인공 신경망으로 구성된 쥐의 디지털 뇌는 열린 경기장에서 뛰어다니는 실제 쥐의 수십 시간 분량의 신경 기록으로 훈련되었다.
매우 민첩한 네 손가락 로봇 손을 개발
브리스톨 대학(Bristol University)의 연구팀은 AnyRotate라는 인공 촉각 손가락 끝이 있는 매우 민첩한 네 손가락 로봇 손을 개발했다. 이 혁신적인 로봇 손은 손이 거꾸로 된 상태에서도 모든 방향과 방향으로 물체를 감지하고 회전할 수 있으며, 이는 이전에는 불가능했던 기능이다.
이러한 수준의 민첩성을 달성하려면 정밀한 모터 제어를 위해 풍부한 터치 정보를 추출하고 활용해야 했다. 연구원들은 로봇 손의 민첩성을 향상시키면 슈퍼마켓 상품을 취급하거나 재활용 폐기물을 분류하는 것과 같은 자동화된 작업을 크게 발전시킬 수 있다고 믿는다. 그들의 연구에 대한 자세한 내용은 GitHub에서 확인할 수 있다.
로봇 조작 개선에는 작동 복잡성, 정밀한 제어 및 환경 불확실성으로 인해 여러 손가락을 사용하는 손으로 조작하는 문제가 포함된다. 특히 OpenAI의 최근 발전은 여러 대의 카메라가 필요한 자체 폐색이 발생하기 쉬운 비전 시스템에 의존한다. 고유 수용 감각과 촉각 감지는 운동 중에도 공간 조작의 중추적인 역할을 하는 것으로 부상했으며, 복잡한 물리학과 중력 불변 파악에 대한 이해가 필요하다.
연구원들에 따르면, 로봇과 물체의 세부적인 상호 작용에 중요한 촉각 감지는 시뮬레이션과 현실 사이의 격차에 직면하여 고해상도 데이터 사용을 제한한다. 향상된 촉각 표현은 손 작업에서 향상된 손재주와 확장된 기능을 약속하며 향후 발전의 잠재력을 강조한다. 연구팀은 고급 촉각 감지 기능을 사용하여 중력의 영향을 받지 않고 손에 있는 물체를 여러 축에 걸쳐 회전시키는 로봇 시스템을 개발했다. 그들은 목표 지향적 강화 학습(RL)과 조밀한 촉각 피드백을 결합했다.
"브리스톨에서 우리의 인공 촉각 손가락 끝은 인간 피부의 내부 구조를 복사하는 것을 기반으로 피부 아래쪽에 핀 모양의 유두의 3D 프린팅 메쉬를 사용합니다."라고 Nathan Lepora 교수는 성명서에서 말했다.
처음에 연구원들은 시뮬레이션을 현실 세계에 적용하는 프레임워크를 구축하고 다축 물체 조작을 위한 정확한 정책을 훈련하기 위해 상세한 촉각 표현을 개발했다. 그들은 시끄러운 환경에서 안정적인 조작에 중요한 촉각 이미지에서 접촉 자세와 힘을 예측하도록 관찰 모델을 훈련했다.
실제 응용 분야에서는 손가락 끝에 촉각 센서가 있는 네 손가락의 완전 작동식 로봇 손을 장착하여 안정적이고 정확한 손 내 물체 회전을 보장했다. 실제 테스트에서 팀의 조밀한 촉각 정책은 다양한 물체를 효과적으로 처리하여 단순한 촉각 방법보다 다양한 방향으로 더 잘 회전했다.
놀랍게도, 특정 미끄러짐 감지 기능이 없어도 고급 촉각 센서는 물체가 움직이기 시작하는 시점을 감지하고 그에 따라 조정할 수 있다. 연구원에 따르면 이는 상세한 촉각 감지가 손에 있는 물체를 안전하게 조작하는 능력을 향상시키는 방법을 보여주며 로봇 공학에서 중요한 역할을 강조한다.
이 연구는 고급 촉각 감지를 사용하여 손에 있는 물체를 모든 축과 방향으로 회전시키는 일반적인 정책을 선보였으며, 이는 로봇 민첩성의 이정표를 세웠다. 촘촘한 터치는 잘 수행되었지만, 상자 모양이나 길쭉한 물체는 서로 다른 그립 포인트에서 나오는 유사한 촉각 피드백으로 인해 어려움을 겪었다. 촉각 이미지, 접촉력 필드로 촉각 표현을 향상시키거나 비전을 통합하면 견고성이 향상될 수 있다.
전 세계 빅테크 기업들이 휴머노이드 로봇 프로젝트에 투자 금액
개별 기업들은 투자 규모를 자세히 공개하지 않는다. 하지만, 관련 뉴스 기사와 시장 분석 보고서를 종합하면, 수십억 달러 규모의 거대한 투자가 이루어지고 있다는 것을 추측할 수 있다.
투자 규모 추정 근거
- 개별 기업들의 투자 사례:
- 테슬라: 2022년 8월, 테슬라는 인공지능 회사 딥마인드를 인수하기 위해 128억 달러를 지출. 딥마인드는 휴머노이드 로봇 개발에 참여 중.
- 구글: 구글은 매년 인공지능 연구에 수십억 달러를 투자하고 있으며, 이 중 일부는 휴머노이드 로봇 개발에도 사용.
- 아마존: 아마존은 로봇 물류 시스템 개발에 수십억 달러를 투자하고 있으며, 이 기술은 앞으로 휴머노이드 로봇에 적용.
- 메타: 메타는 가상 현실(VR)과 증강 현실(AR) 기술 개발에 수십억 달러를 투자하고 있으며, 이는 향후 휴머노이드 로봇의 인간-컴퓨터 상호 작용 방식에도 영향을 미칠 것으로 예상.
- 시장 분석 보고서:
- 글로벌 마켓 리서치: 2023년 보고서에 따르면, 전 세계 휴머노이드 로봇 시장 규모는 2023년 26억 달러에서 2030년 86억 달러로 성장할 전망이며, 이 기간 동안 연평균 성장률(CAGR)은 22.4%가 될 것으로 예상.
- IDC: 2022년 보고서에 따르면, 2022년 전 세계 로봇 시장 전체 투자 규모는 1,315억 달러였으며, 이 중 휴머노이드 로봇 투자 규모는 약 10%인 131억 달러로 추정된다.
결론
비록 정확한 투자 규모를 파악하기는 어렵지만, 전 세계 빅테크 기업들이 휴머노이드 로봇 프로젝트에 수십억 달러 규모의 거대한 투자를 하고 있다는 것은 분명하다. 이는 휴머노이드 로봇 기술이 빠르게 발전하고 있으며, 향후 다양한 산업 분야에 적용될 것임을 보여주는 지표.
참고 자료:
- 테슬라 딥마인드 인수 뉴스: https://www.reuters.com/article/business/autos-transportation/tesla-hires-andrej-karpathy-as-new-head-of-ai-and-computer-vision-electrek-idUSFWN1JH0QN/
- 구글 인공지능 투자 뉴스: https://www.cnbc.com/video/2023/05/10/short-as-customers-start-using-google-ai-they-will-buy-into-it-says-google-cloud-ceo-thomas-kurian.html
- 아마존 로봇 물류 시스템 투자 뉴스: https://www.aboutamazon.com/news/operations/amazon-introduces-new-robotics-solutions
- 메타 VR/AR 투자 뉴스: https://www.cnbc.com/2023/04/26/facebook-meta-q1-earnings-report.html
- 글로벌 마켓 리서치 휴머노이드 로봇 시장 보고서:
- IDC 로봇 시장 투자 규모 보고서:
빅테크 기업들이 휴머노이드 로봇 프로젝트에 지원하는 예산 규모
휴머노이드 로봇 개발은 기술의 최전선에서 진행되는 혁신적인 프로젝트로, 이에 대한 투자 역시 거대하다. 빅테크 기업들은 휴머노이드 로봇 프로젝트에 막대한 예산을 할당하여 다양한 연구와 개발을 진행 중이다. .
Google과 Boston Dynamics
Google의 자회사 Boston Dynamics는 휴머노이드 로봇 개발에 수억 달러의 예산을 지원받고 있다. 특히, Atlas 로봇의 개발과 이를 상용화하는 데 필요한 연구비는 연간 약 5억 달러에 달하는 것으로 알려져 있다. Google은 이 외에도 인공지능 및 자율 제어 시스템 개발을 위해 추가적인 자금을 지속적으로 투자하고 있다.
Amazon의 로봇 혁신
Amazon은 물류 자동화와 효율성 극대화를 목표로 로봇 기술 개발에 연간 약 11억 달러를 투자하고 있다. Amazon Robotics 부서는 이 예산을 활용해 다양한 로봇 기술을 연구하고 있으며, 이 중 상당 부분이 휴머노이드 로봇 개발에 사용되고 있다. Amazon의 목표는 향후 몇 년 내에 휴머노이드 로봇을 물류센터에서 실질적으로 운영하는 것이다.
Honda와 ASIMO 프로젝트
Honda의 ASIMO 프로젝트는 이미 오랜 역사와 함께 상당한 투자가 이뤄진 프로젝트이다. Honda는 ASIMO 및 후속 휴머노이드 로봇 개발에 연간 약 2억 달러를 투자하고 있다. 이 투자는 로봇의 민첩성과 자율성을 향상시키기 위한 연구와 더불어, 새로운 기능을 개발하는 데 사용되고 있다.
Tesla와 Optimus 프로젝트
Tesla의 Optimus 프로젝트는 휴머노이드 로봇 개발의 최신 프로젝트 중 하나로, 이 계획에는 연간 약 8억 달러가 투자되고 있다. 일론 머스크는 Optimus가 자율주행 기술과 기타 AI 기술을 통합해 산업 전반에 혁신을 일으킬 것이라고 강조하며, 이 프로젝트에 대한 투자를 아끼지 않고 있다.
Apple의 비밀 프로젝트
Apple은 상당한 예산을 비밀리에 진행되는 로봇 프로젝트에 투자하고 있는 것으로 알려져 있다. Apple의 투자 규모는 정확히 공개되지 않았지만, 업계 전문가들은 약 10억 달러 이상의 예산이 할당됐을 것으로 추정하고 있다. Apple은 foray를 통해 로봇 기술의 인공지능과 사용자 인터페이스를 최적화하려는 목표를 가지고 있다.
결론
휴머노이드 로봇 프로젝트에 투자하고 있는 주요 빅테크 기업들의 예산은 그 규모와 중요성을 반영하고 있다. Google, Amazon, Honda, Tesla, Apple 등 주요 기업들이 각자의 프로젝트에 수억 달러에서 수십억 달러에 이르는 예산을 투자함으로써, 휴머노이드 로봇 개발은 빠르게 진척되고 있다.