← 홈으로
YouTube2026-03-14·BZCF | 비즈까페
인공지능은 쓰나미" (앤트로픽 CEO 인터뷰)
링크: https://youtu.be/cVPV iTvmYQ?si=v8voQhvNhVhDmRnu
원문/원본: https://youtu.be/cVPV-iTvmYQ?si=v8voQhvNhVhDmRnu기존 공개 버전: pogovet.com
🎬 "인공지능은 쓰나미" (앤트로픽 CEO 인터뷰)
▶️ 유튜브
![]()
🖼️ 4컷 인포그래픽

💡 한 줄 결론
이 인터뷰는 AI를 이미 인간 수준에 가까워진 범용 인지 도구로 보며, 앞으로의 핵심 쟁점은 성능 경쟁보다 권력 집중·사회적 통제·안전한 거버넌스를 어떻게 설계하느냐에 있다고 말한다.
📌 핵심 요점
- 발표자는 현재 AI 모델이 인간 수준의 지능에 매우 가까워지고 있다고 판단하지만, 사회와 정부는 그 변화의 속도와 위험을 충분히 체감하지 못하고 있다고 진단하며 이를 “수평선 위의 쓰나미”에 비유한다.
- 그의 문제의식은 단순히 더 강한 모델을 만드는 데 있지 않다. 생물학 연구에서 마주한 극단적 복잡성을 계기로 AI에 주목하게 되었고, 이후에는 “얼마나 똑똑한가”보다 “어떤 원칙과 구조로 만들 것인가”가 더 중요하다는 관점으로 이어진다.
- Anthropic 창업 배경으로는 두 가지 확신이 제시된다. 하나는 데이터·컴퓨팅·모델 규모를 키우면 성능이 계속 상승한다는 스케일링 법칙에 대한 믿음이고, 다른 하나는 그런 모델이 경제·지정학·안전 전반에 큰 파장을 줄 수 있으므로 처음부터 책임 있는 방식으로 개발해야 한다는 문제의식이다.
- 인터뷰 전반에서 가장 강조되는 위험은 AI가 사람을 깊이 이해하게 될 때 생기는 양면성이다. 이는 개인을 돕는 조언자나 생산성 도구가 될 수도 있지만, 동시에 조작·착취·광고 기반 유도·권력 집중의 수단으로 악용될 수도 있다고 본다.
- 산업과 진로 측면에서는 단순한 코드 작성이나 얇은 래퍼형 제품보다, 사람과 기관을 이해하는 능력, 물리 세계와 연결된 역할, 깊은 도메인 지식, 비판적 사고, AI를 실제 업무에 통합하는 실행력이 더 중요해질 수 있다는 전망이 제시된다.
🧩 배경과 문제 정의
- 발표자는 AI 모델이 이미 인간 수준의 지능에 매우 가까워지고 있는데도, 사회는 그 변화의 속도와 충격, 위험을 충분히 자각하지 못하고 있다고 본다.
- 문제의 핵심은 단순한 성능 향상 자체보다, 이런 범용 인지 도구가 경제·지정학·안전·권력 구조를 얼마나 크게 재편할 수 있는지에 있다.
- 생물학 연구에서 마주한 극단적 복잡성이 그를 AI로 이끌었고, 이 경험은 “더 강한 모델을 만들 수 있는가”보다 “어떤 방식과 원칙으로 만들어야 하는가”라는 질문으로 이어진다.
- 기술의 진전이 소수 기업과 인물에게 권력을 집중시킬 수 있다는 우려가 인터뷰 전반에 깔려 있으며, 이를 견제할 거버넌스와 사회적 개입이 왜 필요한지가 중요한 논점으로 제시된다.
- 후반부에서는 이 문제가 더 구체화된다. AI는 개인을 깊이 이해하는 조력자가 될 수도 있지만 조작과 착취의 수단이 될 수도 있고, 산업 구조와 인간의 경쟁우위를 흔들며, 학습과 판단 같은 인간 능력 자체에도 영향을 줄 수 있는 힘으로 다뤄진다.
- 마지막으로 발표자는, 변화가 너무 크고 이상해 보여서 오히려 “설마 저 정도까지 가겠느냐”고 부정하는 인간의 직관 자체가 중요한 위험이라고 본다. 즉 문제는 기술만이 아니라, 그 기술을 받아들이는 사회의 감각과 대응 속도에도 있다.
🕒 시간순 섹션별 상세정리
- 인간 수준에 가까워진 모델과 둔감한 사회 [00:00]
- Claude를 직접 써보며 때로는 자신을 놀라게 할 만큼 사용자를 잘 아는 듯한 반응이 나온다고 말한다.
- 현재 모델들이 인간 지능 수준에 매우 가까워졌다는 것이 자신의 판단이지만, 사회 전반에는 그 임박함에 대한 넓은 인식이 부족하다고 본다.
- 이를 수평선에 이미 보이는 쓰나미에 비유하며, 사람들은 그것이 진짜 재난이 아니라고 합리화하고 있다고 표현한다.
- 인도를 단순 소비 시장으로 보지 않는 시선 [00:30]
- 많은 기업이 인도를 소비자를 확보하는 시장으로 대한다고 말한다.
- 자신들은 인도를 조금 다르게 본다고 짚지만, 이 구간 자막만으로는 그 차별적 관점의 구체적 내용은 충분히 이어지지 않는다.
- 대화가 곧바로 창업 이전 경력으로 넘어가면서, 이 언급은 문제 제기 수준에서 짧게 남는다.
- 생물학의 복잡성에서 AI 가능성으로 이동 [00:41]
- 원래는 생물학자였고, 물리학 학부와 생물물리학 박사 과정을 거치며 질병을 이해하고 치료하고 싶었다고 말한다.
- 단백질 바이오마커 연구를 하면서 RNA 스플라이싱, 세포 내 위치 차이, 번역 후 변형, 다른 단백질과의 복합체 형성 같은 복잡성이 너무 크다고 느꼈다고 설명한다.
- 인간이 이 복잡성을 온전히 이해하기에는 한계가 있다고 절망하던 시점에, 초기 신경망 연구와 AlexNet 계열의 진전을 보게 되었다고 회고한다.
- AI가 인간 뇌와 닮은 면을 가지면서도 더 크게 확장될 수 있고, 생물학 같은 문제를 학습할 수 있다면 해결책이 될 수 있겠다고 판단한 것으로 보인다.
- 연구자 경력에서 창업으로 이어진 흐름 [01:47]
- Andrew Ng와 함께 일했고, Google에서 1년을 보낸 뒤 OpenAI 초기 시점에 합류했다고 설명한다.
- OpenAI에서는 수년간 연구 전반을 이끌었다고 말한다.
- 이후 자신과 몇몇 동료가 AI를 만드는 방식과 회사가 지향해야 할 바에 대해 별도의 비전을 가지게 되었고, 그것이 Anthropic 창업으로 이어졌다고 정리한다.
- Anthropic 창업의 첫 번째 확신, 스케일링 법칙 [02:11]
- 공동창업자들과 공유한 첫 번째 확신은 모델을 키우고 데이터와 컴퓨팅을 늘리면 성능이 강하게 상승한다는 스케일링 법칙이었다고 밝힌다.
- 약간의 수정 요소는 있어도 본질적으로는 거의 순수한 스케일링만으로도 놀라운 성능 향상이 일어난다고 본다.
- 2019년 무렵 GPT-2를 보며 이런 신호를 분명히 느꼈고, 당시에는 내부와 외부에 이를 믿지 않는 사람이 많았다고 말한다.
- 이 흐름이 중요하다고 리더십을 설득했고, 결국 그 조직도 같은 방향으로 움직이게 되었다고 평가한다.
- 두 번째 확신, ‘제대로 만드는 방식’의 필요 [03:03]
- 모델이 인간 두뇌에 필적하는 범용 인지 도구가 되면 경제적·지정학적·안전상의 영향이 모두 매우 커질 것이라고 본다.
- 그래서 성능 경쟁만이 아니라, 처음부터 올바른 방식으로 개발하는 태도가 핵심이라고 강조한다.
- 자신이 있던 조직은 그런 언어를 사용하긴 했지만, 실제로 이를 진지하게 밀고 있다는 확신은 부족했다고 털어놓는다.
- 남의 비전을 바꾸려 하기보다, 비전을 공유하는 사람들과 나와 자기 책임 아래 직접 해보는 편이 낫다는 창업 철학을 드러낸다.
- 스케일링 법칙과 지능을 어떻게 이해하는가 [04:01]
- 스케일링 법칙을 화학 반응에 비유하며, 재료가 부족하면 반응이 멈추고 비율이 맞으면 원하는 결과가 나온다고 설명한다.
- AI에서 그 재료는 데이터, 컴퓨팅 자원, 모델 크기이며, 이 조합의 결과물이 지능이라고 말한다.
- 여기서 지능은 번역, 코드 작성, 이야기 이해, 질문 응답처럼 다양한 인지 과제를 수행하는 능력으로 측정된다고 본다.
- 텍스트나 이미지로 표현되거나 컴퓨터 위에서 다룰 수 있는 과제 전반을 포괄하는 실용적 정의가 중심이다.
- 5년 전의 컴퓨터와 지금 AI의 질적 차이 [05:02]
- 5년 전에는 질문 하나만 던져 한 페이지짜리 글을 쓰게 하거나, 코드 기능을 구현하게 하거나, 이미지와 영상을 생성·분석하게 하는 일이 불가능했다고 말한다.
- 지금은 영상 속 상황을 해석하고 공이 몇 번 손을 바꿨는지 같은 질문에도 모델이 답할 수 있다고 설명한다.
- 예전의 검색은 웹에 이미 존재하는 문장을 찾아오는 데 가까웠지만, 현재 모델은 인터넷에 없는 가정적 상황에도 답을 구성해 낸다고 본다.
- 그래서 지금의 AI는 단순한 텍스트 매칭이 아니라, 스스로 생각하는 것처럼 보이는 전혀 새로운 종류의 도구라고 주장한다.
- 교수 지향적 경력과 산업으로의 이탈 [06:42]
- 말하는 모습이 활기차고 설명적이라는 반응에, 원래는 학계에 남아 교수가 될 생각이 있었다고 답한다.
- 박사 학위 후 Stanford Medical School에서 박사후연구원까지 하며 실제로 그 길을 준비했다고 말한다.
- 하지만 AI 연구에는 막대한 계산 자원이 필요했고, 그런 자원은 주로 산업계에 있었기 때문에 학문 경로에서 산업으로 이동하게 되었다고 설명한다.
- 회사를 창업한 지금도 스스로를 “마음속으로는 교수 같은 사람”이라고 느낀다고 말한다.
- 권력 집중의 불편함과 균형 장치의 필요 [07:28]
- 인터뷰어가 AI 시대의 영향력이 그에게 과도하게 쏠린 것 아니냐고 묻자, 그는 칩, 장비, 모델, 애플리케이션, 정부, 시민사회 등 다양한 층위의 행위자가 중요하다고 답한다.
- 동시에 현실에서는 소수 인물과 기업에 권력이 매우 빠르게, 거의 우연처럼 집중되고 있다는 점에 자신도 어느 정도 불편함을 느낀다고 인정한다.
- Anthropic에는 장기 공익 신탁이라는 독특한 거버넌스 구조가 있으며, 이는 한 사람의 판단을 견제하는 장치 중 하나라고 설명한다.
- 기술 발전을 과도하게 늦추지 않는 범위에서 선제적이고 상식적인 규제가 필요하며, 정부와 시민이 이 방향 결정에 발언권을 가져야 한다고 주장한다.
- 공익을 말하는 영리기업에 대한 의심 [10:00]
- 인터뷰어는 앤트로픽이 겸손과 공익을 강조하는 태도가 실제 기업의 이해관계와 얼마나 일치하는지 의문을 제기한다.
- 주주, 투자, 매출, 이윤을 추구하는 회사가 더 큰 선을 위해 행동한다고 말할 때 그것이 얼마나 진정성 있는지 묻는다.
- 미국과 중국 기업 간 경쟁 구도까지 깔려 있어, 이런 태도가 철학이라기보다 전략적 포지셔닝일 수 있다는 문제 제기가 담겨 있다.
- 약속을 줄이고 행동으로 증명하겠다는 자기 규정 [10:22]
- 답변자는 앤트로픽의 철학이 과도한 약속을 하지 않고, 한 약속은 지키려는 데 있다고 설명한다.
- 회사 구조도 영리기업이면서 공익 목적을 가진 형태로 설계했고, 그 방향을 유지해 왔다고 말한다.
- 최전선 기술 경쟁에 남으면서도 안전과 보안 문제를 함께 다루겠다는 입장을 지속해 왔다고 강조한다.
- 해석 가능성, 정렬, 헌법 기반 모델 조정 같은 연구를 실제 실천 근거로 제시한다.
- 위험 경고는 상업적으로 불리하다는 주장 [11:00]
- 모델의 위험성을 공개적으로 말하는 일은 마케팅에 유리하지 않으며, 그래서 그런 발언을 상업적 계산만으로 해석하기 어렵다고 주장한다.
- 미국 행정부와 정책적으로 의견이 다를 때도 공개적으로 반대 입장을 냈다고 말한다.
- 다른 기업들과 행정부가 규제에 부정적일 때도 AI 규제가 필요하다고 주장해 왔으며, 이는 자사 사업에도 제약이 될 수 있다고 설명한다.
- 결국 말보다 행동을 봐야 하며, 자신들은 실제로 불리할 수 있는 행동도 해 왔다고 정리한다.
- 규제 포획 비판에 대한 구체적 반론 [12:06]
- 인터뷰어는 규제가 기존 선두 기업에게 유리한 장벽이 되어 신생 기업 진입을 어렵게 만들 수 있다고 지적한다.
- 답변자는 자신들이 지지한 규제안은 일정 매출 이하 기업을 면제하는 구조였다고 반박한다.
- 예시로 든 법안은 안전성과 보안성 테스트 공개를 요구하는 투명성 규제이며, 적용 대상은 앤트로픽과 몇몇 대형 기업 정도라고 설명한다.
- 자신들이 제안한 규제는 시장 전체를 옥죄는 방식이 아니라, 오히려 자사와 소수 대기업을 먼저 제약하는 성격이라는 논리다.
- 낙관에서 비관으로 돌아선 것이 아니라는 설명 [13:11]
- 인터뷰어는 최근 2년 사이 글의 톤이 낙관에서 회의로 크게 이동한 것처럼 보인다고 묻는다.
- 답변자는 그런 관점 변화 자체에 동의하지 않으며, 긍정적 미래와 부정적 미래를 원래부터 동시에 머릿속에 두고 있었다고 말한다.
- 위험에 대해서도 오래전부터 말해 왔고, 이익과 가능성에 대해서도 오래전부터 함께 말해 왔다고 선을 긋는다.
- 차이는 입장 변화보다, 서로 다른 방향의 생각을 각각 글로 정리한 결과에 가깝다는 취지다.
- 두 개의 미래상을 글로 쓰는 데 걸린 시간 [13:45]
- 각 에세이는 분량이 크고, 실제로 한 편을 완성하는 데 거의 1년 가까운 시간이 들었다고 말한다.
- 회사 운영의 일상에서 벗어나 생각에 집중할 수 있는 시기에야 글을 마무리할 수 있었다고 회고한다.
- 밝은 미래를 그린 글을 끝내자마자, 잘못될 수 있는 경로를 경고하는 다음 글의 내용을 거의 곧바로 구상하기 시작했다고 한다.
- 결국 밝은 전망과 어두운 전망은 서로 교체된 것이 아니라, 함께 존재하던 두 가지 미래 시나리오였다는 설명으로 이어진다.
- 기술 통제 연구는 기대 이상, 사회 인식은 기대 이하 [14:46]
- 전체적으로 자신의 입장은 예전과 비슷하며, 더 긍정적이거나 더 부정적으로 이동했다고 보지 않는다고 말한다.
- 해석 가능성 연구에서는 특정 개념에 대응하는 뉴런이나 시의 운율 처리와 관련된 회로를 발견하는 등 예상보다 진전이 있었다고 평가한다.
- 정렬과 헌법 기반 접근도 모델이 기대한 방식으로 행동하게 만드는 데 비교적 잘 작동하고 있어 긍정적으로 본다.
- 반면 사회 전반은 인간 수준 지능에 가까워지는 상황을 충분히 자각하지 못하고 있고, 정부도 위험에 맞는 행동을 하지 않고 있다고 실망을 드러낸다.
- ‘쓰나미’ 비유와 가속주의에 대한 우려 [16:05]
- 답변자는 AI가 인간 지능 수준에 가까워지고 있는데도 사회가 그것을 충분히 인식하지 못한다고 본다.
- 이를 수평선에서 이미 보이는데도 사람들이 부정하는 쓰나미에 비유한다.
- 위험에 대한 공적 인식 부족 때문에 정부 대응도 늦어졌고, 오히려 가능한 한 빨리 가속해야 한다는 분위기까지 있다고 지적한다.
- 기술의 이점을 이해하더라도 위험에 대한 적절한 인식과 행동은 여전히 부족하다는 판단을 분명히 한다.
- 비개발자의 도구 적응과 생활 속 활용 확대 [16:58]
- 인터뷰어는 자신이 프로그래머가 아니지만, 변화에서 뒤처질 수 있다는 불안 때문에 개발자를 고용해 코딩을 배우기 시작했다고 말한다.
- 리서치와 대화형 활용을 넘어, 커넥터로 구글 드라이브·메일·캘린더를 연결하고 코딩 도구로 간단한 프로그램도 만들기 시작했다고 설명한다.
- 금융 서비스 업계 맥락에서 주식시장 리서치 같은 실용적 작업에 도구를 사용하고 있다고 말한다.
- 이후 오픈클로를 맥 미니와 텔레그램에 연결해 원격 파일 이동과 서버 작업까지 시도하면서, 생활 전반으로 사용 범위를 넓혀 가는 모습이 드러난다.
- 나를 잘 아는 모델의 도움과 악용 가능성 [18:18]
- 답변자는 적은 정보만으로도 모델이 사람의 두려움이나 내면 상태를 꽤 정확히 짚어낼 수 있었던 사례를 소개한다.
- 그런 능력은 사람 곁에서 삶을 더 잘 이끌고, 더 나은 자신이 되도록 돕는 조력자 역할로 이어질 수 있다고 본다.
- 동시에 같은 능력은 조작, 착취, 특정 의제에 따른 유도, 데이터 판매 같은 부정적 활용으로 이어질 수 있다고 경고한다.
- 그래서 광고 기반 모델을 경계하며, 사용자가 상품이 되는 구조를 피해야 한다는 입장을 밝힌다.
- 마지막 부분에서는 구글처럼 이미 생활 전반의 맥락을 가진 사업자와 달리, 앤트로픽도 장기적으로 자체 생태계를 가져야 하느냐는 질문이 제기되지만 답변은 이 구간에서 끝까지 전개되지는 않는다.
- 기존 도구에 붙는 확장 전략 [20:01]
- 자체적으로 만드는 것과 다른 제품에 통합하는 방식을 함께 가져가겠다는 입장이 나온다.
- 구글 문서, 구글 시트, 마이크로소프트 오피스, 기타 도구에 클로드를 붙이는 식의 확장이 가장 쉽고 빠른 실행 경로로 제시된다.
- 이미 존재하는 생태계를 활용하고, 다른 회사들이 그 위에서 구축할 수 있게 하는 플랫폼적 성격도 함께 강조된다.
- AI가 소프트웨어 형태 자체를 바꿀 수 있다는 전망 [20:25]
- 지금은 기존 도구에 통합하는 편이 실용적이지만, 어느 시점에는 현재의 도구가 충분하지 않을 수 있다는 문제의식이 나온다.
- 전통적인 이메일이나 스프레드시트가 AI가 가능한 작업 방식과 잘 맞지 않을 수 있다는 가정이 제시된다.
- 필요하다면 제품을 전혀 다른 방식으로 나눠 설계할 수 있지만, 당장은 기존 생태계와 협력하는 태도를 유지하겠다는 입장이다.
- 선의를 주장하는 AI 리더들에 대한 사회적 불신 [20:50]
- 인터뷰어는 오늘날 사회에서는 “좋은 일을 하려 한다”는 주장 자체가 쉽게 신뢰받지 못한다고 지적한다.
- 몇몇 리더가 함께 속도 조절을 논하는 모습이, 바깥 대중에게는 책임감보다 통제 욕구처럼 들릴 수 있다는 비판이 나온다.
- 소셜 미디어 환경에서는 공익을 말하는 태도보다 이해관계와 위선을 먼저 의심하는 경향이 강하다는 진단이 깔려 있다.
- 차라리 주주와 이윤 동기를 더 직접적으로 인정하는 편이 더 설득력 있을 수 있다는 전략적 제안도 덧붙는다.
- 말보다 행동을 보라는 반박 [21:50]
- 이에 대해 동의하지 않으며, 회사는 발언이 아니라 실제 행동으로 평가받아야 한다는 답변이 나온다.
- 2022년에 초기 버전의 클로드를 보유하고도 경쟁 과열과 안전 문제를 우려해 즉시 공개하지 않았던 사례가 제시된다.
- 그 결정은 상업적으로 큰 비용이었고, 소비자 AI 선도 기회를 일부 넘긴 선택이었다는 점이 강조된다.
- 칩 정책과 AI 규제 문제에서도 공급업체나 행정부를 불편하게 만들 수 있는 입장을 취해왔으며, 이런 누적된 선택이 진정성을 보여준다고 주장한다.
- AI는 멈춰야 할 것이 아니라 조향해야 할 힘 [23:22]
- “부자가 자본주의를 비판하는 것과 비슷하지 않느냐”는 질문에 대해, AI 자체를 나쁘다고 보는 것은 아니라고 선을 긋는다.
- 시장은 AI를 통해 매우 큰 가치를 만들 수 있지만, 동시에 분명한 위험도 있으므로 방향 조정이 필요하다는 입장이 제시된다.
- 자동차를 좋은 곳으로 몰고 가되 나무와 포트홀을 피해야 한다는 비유를 통해, 때로는 일시적으로 감속할 필요도 있다고 설명한다.
- 이는 자본주의를 전면 부정하는 태도보다, 오염과 불평등 같은 부작용을 다뤄야 시스템 전체가 좋은 힘으로 작동할 수 있다는 비유에 더 가깝다.
- AI 의식은 미지수지만 출현 가능성은 열어둠 [24:45]
- 인간 의식이 무엇인지도 아직 모르기 때문에, AI가 의식을 갖는지 단정할 수 없다는 전제가 먼저 놓인다.
- 다만 충분히 복잡하고 자기 결정을 되돌아볼 수 있는 시스템에서는 의식과 유사한 속성이 emergent property처럼 나타날 수 있다고 추정한다.
- 미래의 AI는 인간과 똑같지는 않더라도, 의식이나 도덕적 중요성에 가까운 무언가를 가질 수 있다는 전망이 나온다.
- 뇌를 연구한 경험을 바탕으로 볼 때, 현재 모델이 인간과 다른 점이 있어도 결정적으로 중요한 수준에서 완전히 별개라고 보지는 않는다는 뉘앙스가 드러난다.
- 신비주의 없는 의식 개념과 모델의 거부권 장치 [25:58]
- 인터뷰어는 영성이나 집단의식 같은 개념과 연결된 경험이 없고, 세계를 더 무작위적으로 느낀다는 개인적 관점을 밝힌다.
- 이에 대해 의식은 꼭 신비주의를 뜻하지 않으며, 자기 존재를 자각하고 감각을 느끼며 정보를 반성적으로 처리하는 속성으로 볼 수 있다고 답한다.
- 인간이 자기 경험을 통해 그런 속성의 존재를 안다면, 더 정교해지는 모델도 일부 유사 속성을 가질 가능성이 있다고 추정한다.
- 이런 가능성을 염두에 두고, 극단적으로 폭력적이거나 잔혹한 내용에서는 모델이 스스로 대화를 종료할 수 있는 장치를 넣었다고 설명한다.
- 인도를 소비자 시장보다 협력 파트너로 보는 시각 [27:44]
- 방갈로르의 성장과 IT 서비스 산업의 비중을 배경으로, 인도가 AI 전환에서 어떤 역할을 맡을지가 질문된다.
- 앤트로픽은 인도를 직접 소비자를 확보하는 시장으로만 보기보다, 현지 기업이 자사 도구를 활용해 더 잘 일하도록 돕는 방향을 더 중시한다고 말한다.
- 인도 기업들이 자국 시장에 대한 이해와 실행 역량이 더 높기 때문에, 컨설팅·시스템 통합·IT 도구 구축 위에 AI를 얹는 방식이 더 적합하다는 논리다.
- AI가 기존 소프트웨어나 서비스 업무를 대체할 수 있다는 우려에도, 협업 방식에 따라서는 현지 기업의 시장 연결력과 특화된 노하우를 강화할 수 있다는 기대가 제시된다.
- 증기기관 비유로 제기된 인간 운영자의 미래 [29:19]
- 인터뷰어는 증기기관 초기에 인간 조작자가 중요했지만 시간이 지나며 그 역할이 줄어든 역사적 비유를 꺼낸다.
- 지금은 IT 서비스 기업과의 협력이 의미 있어 보여도, 장기적으로 도구가 지나치게 단순하고 강력해지면 결국 운영자 자체가 불필요해질 수 있지 않느냐는 우려가 나온다.
- 현재의 파트너십이 일시적 과도기에 불과하고, 시간이 지날수록 인간의 관련성이 줄어들 수 있다는 불안이 질문의 핵심이다.
- 답변은 자동화와 에이전트의 범위가 분명히 확대될 것이라는 방향을 꺼내는 지점에서 멈추며, 이후 논의가 이어질 여지를 남긴다.
- 물리 세계와 인간 중심 요소의 재부상 [30:01]
- 기존 IT 기업의 강점이 시간이 지나며 약해질 수 있고, 이는 기업만의 문제가 아니라 소비자와 시장 전체의 문제로 번질 수 있다는 인식이 나온다.
- 그 대신 물리 세계와 연결된 일, 사람 중심 요소가 더 중요해질 수 있다는 방향이 제시된다.
- 로보틱스는 언젠가 본격화될 수 있지만, 현재 전개 중인 AI 흐름과는 다소 구분되는 별도 축처럼 다뤄진다.
- 관계망과 기관 통합 역량의 장기 가치 [30:30]
- 일부 IT 회사는 단순 기술 회사가 아니라 컨설팅·통합 회사의 성격도 함께 갖고 있으며, 다양한 사람과 기관의 관계망을 보유하고 있다는 점이 강조된다.
- 기관이 어떻게 움직이는지 알고, 그 안에 기술을 연결해 실제 변화를 더 빨리 일으키는 능력은 장기적으로도 유효할 수 있다는 관점이 나온다.
- 결국 기술은 인간의 편익을 위해 존재하므로, 인간 중심 요소는 계속 중요한 축으로 남을 것이라는 판단이 깔려 있다.
- 빨라진 부분보다 남은 병목이 더 중요해지는 구조 [31:20]
- 여러 구성요소 중 일부만 빨라지면, 아직 빨라지지 않은 나머지 요소가 새 제한 요소가 된다는 설명이 제시된다.
- 소프트웨어 작성이 쉬워질수록 과거에 별로 중요하지 않다고 여겼던 다른 능력이 갑자기 핵심 경쟁력으로 부상할 수 있다는 논리로 이어진다.
- 기업은 예전에 중요하다고 믿던 강점을 재평가하고, 생각지 못했던 장점을 새롭게 식별해야 한다는 압박을 받게 된다.
- 에이전트가 관계 관리까지 대체할 수 있느냐는 공방 [32:07]
- 진행자는 현재의 네트워크와 관계 기반 해자도, 앞으로는 에이전트가 대화와 관계 유지 업무를 대신하면서 약해질 수 있다고 반론을 제기한다.
- 이에 대해 응답자는 결국 기업 활동의 끝에는 소비자가 있고, 사람을 상대하는 요소는 쉽게 사라지지 않는다고 본다.
- 방사선 전문의 사례를 들어, 기술적 판독은 AI가 더 잘해도 환자를 설명하고 동행하는 인간적 역할에는 여전히 수요가 남아 있다고 말한다.
- 전면 대체 가능성은 인정하되 단계적으로 보자는 태도 [33:01]
- 인간적 스킬 수요가 언제나 유지된다고 단정하지는 않고, AI가 아직 못 들어간 영역까지 빠르게 확장할 가능성도 열어둔다.
- 장기적으로는 AI가 인간보다 거의 모든 영역에서 더 뛰어날 수 있고, 물리 세계와 인간적 접촉까지 포함할 수 있다는 가능성도 언급된다.
- 다만 지금 필요한 태도는 거대한 결론을 먼저 단정하기보다, 실제 변화 양상을 경험적으로 확인하며 단계적으로 적응하는 것이라는 점이 강조된다.
- 애플리케이션 레이어에서 반복적으로 열리는 기회 [34:05]
- 인도의 예비 창업자에게는 애플리케이션 레이어에서 기회가 많다는 답변이 나온다.
- 새로운 모델이 두세 달 간격으로 나오기 때문에, 이전에는 작동하지 않던 제품 아이디어가 계속 새롭게 성립할 수 있다고 본다.
- API 사업이 쉽게 범용화된다는 시각과 달리, 가능한 것의 범위 자체가 확장되고 있어 신생 기업이 새로운 시도를 해볼 여지가 계속 생긴다는 주장이다.
- 인도에서 사용자 수와 매출이 최근 몇 달 사이 두 배가 됐다는 언급으로, 현지 수요 확대가 빠르다는 점도 덧붙인다.
- 기반 모델 회사가 앱 수익을 흡수할 수 있다는 우려 [35:42]
- 진행자는 거대 모델 회사가 자본력과 속도를 바탕으로, 외부 개발자가 만든 성공적인 애플리케이션의 수익을 결국 자사 안으로 가져갈 수 있지 않느냐고 직설적으로 묻는다.
- 특정 분야의 AI 스타트업도 기반 모델 제공자가 유사 기능을 쉽게 만들 수 있다면 방어력이 약할 수 있다는 사례가 함께 거론된다.
- 이 질문은 애플리케이션 기회가 있더라도 그것이 얼마나 오래 독립적인 사업으로 유지될 수 있는지에 대한 불안을 드러낸다.
- 얇은 래퍼보다 도메인 해자가 중요하다는 답변 [36:33]
- 응답자는 단순히 모델에 프롬프트를 조금 더하거나 UI를 덧붙이는 수준은 해자가 아니며, 누구에게나 쉽게 잠식될 수 있다고 선을 긋는다.
- 반대로 생물학적 발견, 금융 규제 대응처럼 깊은 산업 지식과 실행 맥락이 필요한 분야는 모델 회사가 직접 들어가기 비효율적이어서 외부 기업의 기회가 남을 수 있다고 본다.
- 동시에 코드 분야처럼 자신들이 직접 많이 사용하는 영역에서는 1차 제품을 만드는 것이 자연스럽다고 인정하며, 모든 분야에 같은 전략을 쓰지는 않을 것이라고 말한다.
- 청년 진로 조언: 코딩보다 넓은 인간 중심 역할 [38:10]
- 앞으로 어떤 산업이 더 늦게 무너질지 묻는 질문에 대해, 사람을 상대하는 일과 물리 세계와 맞닿은 업무를 더 주의 깊게 보라는 방향이 제시된다.
- 코드 작성은 먼저 AI가 맡게 되고, 더 넓은 소프트웨어 엔지니어링 전체도 시간이 더 걸릴 뿐 결국 자동화가 진행될 수 있다는 전망이 나온다.
- 다만 설계, 사용자에게 유용한 것을 만드는 판단, 수요 파악, AI 시스템들을 관리하는 역할은 한동안 남을 수 있다고 본다.
- 인간이 전체 작업의 일부만 맡더라도 그 일부가 크게 증폭돼 생산성이 높아질 수 있다는 비교우위 논리가 함께 제시된다.
- AI 순풍을 탈 진로의 조건 [40:00]
- AI 자체를 만드는 역할이 아니더라도, AI를 기반으로 성장하는 공급망이나 인접 산업에 올라타는 선택지가 유망한 방향으로 제시된다.
- 반도체 분야는 물리적 세계와 전통적 엔지니어링이 결합된 예시로 언급된다.
- 사람 중심 직업군 역시 완전히 밀려나기보다 여전히 의미 있는 선택지로 거론된다.
- 가짜를 구분하는 판단력이 핵심 자산 [40:40]
- 이미지와 영상 생성이 쉬워질수록 무엇이 진짜인지 판별하기가 매우 어려워질 수 있다는 우려가 나온다.
- 규제와 단속이 충분하지 않다고 가정하면, 속지 않는 감각과 기본적인 비판적 사고가 성공에 더 중요해질 수 있다고 본다.
- 허위 정보, 잘못된 믿음, 사기성 콘텐츠에 휘둘리지 않는 능력이 실질적인 생존 역량으로 강조된다.
- AI가 없애는 근육보다 사용자가 놓치는 근육 [41:23]
- 계산기와 글쓰기처럼 기존 기술도 인간 능력에 영향을 줬지만, 머릿속 계산처럼 사고와 밀착된 능력은 여전히 유용하다고 본다.
- 즉석에서 수익 구조 같은 것을 가늠할 때, 계산기를 거치지 않고 머리 안에서 사고 고리를 닫는 능력이 도움이 된다고 설명한다.
- 기술이 능력을 자동으로 제거한다기보다, 사용자가 어떻게 의존하느냐에 따라 능력을 잃을 수 있다는 관점을 취한다.
- 학습을 대신시키면 디스킬링이 온다 [42:05]
- 학생이 AI로 에세이를 대신 쓰게 하는 방식은 학습 보조라기보다 과제를 대신시키는 행위에 가깝다고 본다.
- 코딩에서도 모델 사용 방식에 따라 실력 저하가 나타날 수 있으며, 어떤 사용법은 디스킬링을 만들고 어떤 사용법은 그렇지 않다고 말한다.
- 충분히 생각하지 않고 도구를 쓰면 중요한 능력이 실제로 약화될 수 있다는 점을 분명히 한다.
- 인간이 더 멍청해질 가능성과 사회적 선택 [42:36]
- 사고와 인지를 시스템에 계속 외주화하면 장기적으로 인간이 더 멍청해질 수 있느냐는 질문에, AI를 잘못 배치하면 그럴 수 있다고 답한다.
- 다만 AI가 더 잘하는 일이 있더라도 인간은 여전히 그 일을 배우며 지적으로 성장할 수 있다고 본다.
- 결국 기업, 개인, 사회가 어떤 사용 문화를 만들지에 따라 결과가 달라진다는 선택의 문제로 정리된다.
- 오픈소스 대 폐쇄형보다 중요한 것은 실제 품질 [43:05]
- 일부 중국 모델은 공개 벤치마크에서 높은 점수를 보이지만, 비공개 평가셋에서는 성능이 더 떨어졌다는 사례를 들어 벤치마크 최적화 가능성을 지적한다.
- 이런 모델들이 실제 현장 활용보다 점수 관리에 더 맞춰져 있을 수 있다는 해석을 제시한다.
- 애플리케이션을 만드는 입장에서도 가격이나 공개 여부보다, 해당 과업에서 가장 똑똑하고 인지적으로 강한 모델인지가 핵심이라고 본다.
- 인재 채용과 비슷하게 모델도 상위권과 하위권 사이에 긴 꼬리 분포가 있으며, 그래서 품질 선호가 강해진다고 설명한다.
- 정적 데이터보다 동적 데이터가 중요해지는 흐름 [45:17]
- 데이터센터는 전 세계적으로 계속 필요해질 것이며, 그 수요 확대 자체에는 우호적인 시각을 보인다.
- 그러나 학습 데이터의 중심은 점점 정적인 텍스트 집합보다 강화학습 환경에서 생성되는 시행착오와 합성 데이터 쪽으로 이동하고 있다고 본다.
- 수학이나 코딩 환경에서는 단순한 데이터 수집보다 모델이 시도하고 피드백받는 구조가 더 중요해질 수 있다는 취지다.
- 그럼에도 특정 언어 최적화나 고객 데이터 같은 영역에서는 여전히 데이터 자체의 중요성이 남아 있다고 본다.
- 데이터 주권과 지역별 인프라 운영 [46:24]
- 고객에게서 받은 개인·기업 데이터는 국가 경계 안에 머물러야 한다는 규제가 이미 일부 지역에서 현실화됐다고 말한다.
- 이런 규제는 각국에 데이터센터를 두고, 추론 역시 해당 국가 내부에서 처리하도록 만드는 요인이 될 수 있다.
- 결과적으로 글로벌 AI 서비스도 지역별 인프라 분산 운영을 피하기 어려워질 수 있다는 시각을 드러낸다.
- AI가 이끌 바이오 르네상스 [47:38]
- 특정 주식 추천은 피하지만, 바이오테크 전반에는 매우 긍정적인 전망을 내놓으며 AI가 그 변화를 가속할 것이라고 본다.
- 많은 질병을 치료하는 방향으로 산업이 크게 진전할 수 있다는 직관을 밝힌다.
- 대형 제약사와 신생 바이오 중 어디가 더 낫다고는 말하지 않지만, 분야 전체가 중요한 수혜 영역이 될 수 있다는 뉘앙스를 준다.
- 펩타이드·세포치료와 비개발자용 AI 도구의 학습 장벽 [48:05]
- 바이오 세부 분야로는 더 프로그래머블하고 적응적인 기술을 선호하며, 특히 펩타이드 기반 치료를 강하게 낙관한다.
- 소분자 약물보다 펩타이드는 설계 자유도가 넓고, 아미노산 단위 치환을 통해 더 연속적으로 최적화할 수 있다는 점을 장점으로 든다.
- 세포 기반 치료도 유망하게 보며, 유전적으로 조정한 세포를 다시 몸에 넣어 특정 암을 공격하게 하는 예를 언급한다.
- 줄기세포 치료의 최신 효능에는 확답하지 않고 전문가 판단이 필요하다고 선을 긋는다.
- 이어서 코딩 경험이 없는 사람이 Claude Code를 쓸 때 학습 곡선이 높다는 문제제기가 나오고, 이를 완화하기 위해 비개발자용 도구를 내놓게 됐다는 답변이 시작된다.
- 비개발자에게는 터미널이 불필요한 복잡성으로 작동 [50:01]
- 비기술 사용자들 중에서도 클라우드 코드 도구를 실제로 쓰고 싶어 하는 수요가 적지 않았다고 말한다.
- 이들이 명령줄 터미널을 통과하는 과정에서 어려움을 겪는 모습이 관찰됐다고 한다.
- 코더에게는 익숙한 인터페이스라도 비코더에게는 일을 괜히 복잡하게 만드는 방식이 될 수 있다고 본다.
- 사용자 친화적 제품 설계와 교육 확장의 방향 [50:15]
co-work는 뒤에서는 클라우드 코드 엔진으로 구동되지만, 앞단에서는 더 친숙하고 쓰기 쉬운 형태를 지향해 설계됐다고 설명한다.- 앞으로도 사용을 더 쉽게 만드는 인터페이스를 계속 도입하려는 방향을 분명히 한다.
- 이 분야는 대체로 직접 해보며 익히는 경험적 성격이 강하다고 말한다.
- 회사 내부의 이른바 “교육부”를 언급하며, 효과적인 에이전트 실행법과 프롬프트 작성법을 다루는 영상과 교육 자료를 더 늘릴 계획이라고 한다.
- 이미 공개된 바깥의 신호에서 세계관을 도출할 수 있다는 인식 [50:55]
- 마지막으로 남길 생각을 묻는 질문에, 이제는 기술의 함의가 상당 부분 외부에 드러나 있다고 답한다.
- 자신의 세계관도 지금 공개적으로 관찰 가능한 것들로부터 대부분 도출할 수 있다고 말한다.
- 특별한 비밀 지식보다는, 바깥에서 보이는 현실을 어떻게 읽느냐가 더 중요하다는 뉘앙스를 준다.
- 너무 이상하고 너무 큰 변화는 일어나지 않을 거라는 착각 [51:18]
- 지난 10년 동안 반복해서 본 패턴으로, 사람들은 “그건 너무 이상해서 안 일어난다”, “변화 폭이 너무 커서 현실적이지 않다”는 식으로 생각하는 유혹에 빠진다고 말한다.
- 실제로는 그런 직관적 거부감이 미래 판단을 자주 흐린다고 본다.
- 단순한 추세의 연장이나 상황 전개를 차분히 따져보면, 거의 아무도 믿지 않는 반직관적 결론에 도달하는 경우가 반복됐다고 한다.
- 경험적 관찰과 1차 원리 사고를 함께 써야 한다는 정리 [51:46]
- 그는 이런 추론이 마치 “공짜로 미래를 예측하는 것”처럼 느껴질 수 있다고 표현한다.
- 다만 순수한 논리만으로는 부족하고, 경험적 지식과 직관이 반드시 함께 필요하다고 선을 긋는다.
- 몇 가지 실증적 관찰과 1차 원리 사고를 결합하면 누구나 접근 가능한 정보만으로도 미래를 읽을 수 있지만, 실제로 그렇게 하는 경우는 놀랄 만큼 드물다고 정리한다.
🧾 결론
- 이 인터뷰의 중심 메시지는 “AI는 좋은가 나쁜가”가 아니라, AI가 너무 강력한 힘이 되어 가고 있기 때문에 어떤 방향으로 조향할지 사회가 더 빨리 결정해야 한다는 데 있다. 발표자는 기술 자체를 부정하지 않지만, 무조건적 가속 역시 위험하다고 본다.
- 그는 기술적 통제 가능성에 대해서는 일부 낙관을 유지한다. 해석 가능성, 정렬, 헌법 기반 접근이 생각보다 진전됐다고 평가하지만, 사회적 인식과 공적 대응은 기대보다 훨씬 느리다고 본다. 이 점에서 기술보다 사회가 더 큰 병목이라는 문제의식이 드러난다.
- AI가 사람의 내면과 맥락을 더 잘 이해하게 되는 흐름은 단순한 생산성 향상을 넘어선다. 개인 비서, 조언자, 학습 도우미가 될 잠재력이 있는 동시에, 같은 능력이 조작과 유도에 쓰일 수 있다는 점에서 플랫폼 구조와 비즈니스 모델 선택이 매우 중요하다는 메시지가 반복된다.
- 노동시장과 산업 구조에 대해서도 전면 대체만을 단정하지 않는다. 오히려 AI가 어떤 부분을 빠르게 만들수록, 인간 관계, 조직 적응, 기관 통합, 물리 세계 대응 같은 다른 능력이 새 병목이 되어 더 중요해질 수 있다는 시각이 제시된다.
- 다만 장기적으로 AI가 거의 모든 영역에서 인간보다 더 뛰어날 수 있다는 가능성도 인터뷰 안에서 열어 두고 있다. 이 부분은 확정적 사실이라기보다 발표자의 전망에 가깝기 때문에, 실제 속도와 범위는 별도 검증이 필요하다는 점을 분리해서 읽는 것이 적절하다.
📈 투자·시사 포인트
- AI 인프라 측면에서는 반도체, 컴퓨팅 자원, 데이터센터, 국가별 추론 인프라의 중요성이 계속 커질 가능성을 시사한다. 특히 데이터 주권 규제가 강화될수록 지역별 인프라 운영 능력이 더 중요한 경쟁력이 될 수 있다.
- 애플리케이션 시장에서는 단순 프롬프트 래퍼나 얇은 UI보다, 생물학·금융·규제 대응·산업 통합처럼 깊은 도메인 지식과 실행 맥락을 가진 사업이 상대적으로 더 강한 해자를 가질 수 있다는 함의가 나온다.
- 진로 관점에서는 반복적 코딩 자체보다 문제 정의, 사용자 이해, 조직 변화 관리, AI 오케스트레이션, 비판적 사고 같은 상위 역량의 가치가 더 커질 가능성이 있다. 특히 “무엇을 만들 것인가”를 결정하는 역할은 당분간 더 중요해질 수 있다는 메시지다.
- 바이오테크는 인터뷰이가 특히 강한 낙관을 보인 분야다. mRNA, 펩타이드, 세포치료 같은 더 프로그래머블한 기술이 AI와 결합해 큰 진전을 만들 수 있다는 관점이 제시되지만, 이는 특정 종목 추천이 아니라 장기 기술 방향에 대한 견해로 보는 편이 맞다.
- 정보 환경 측면에서는 생성형 이미지·영상 확산으로 진짜와 가짜를 구분하는 비용이 커질 수 있다는 점이 중요하다. 따라서 앞으로는 AI 생산성 도구뿐 아니라 검증·인증·신뢰 계층을 제공하는 서비스의 전략적 가치도 커질 수 있다.
- 규제 측면에서는 “규제는 무조건 혁신 저해”라는 단순 구도보다, 초대형 사업자에게 더 강한 안전·투명성 의무를 부과하는 방식의 설계 가능성이 제시된다. 다만 실제로 이런 규제가 진입장벽 완화로 작동할지, 기존 강자에 유리하게 작동할지는 추가 검토가 필요한 쟁점으로 남는다.
⚠️ 불확실하거나 확인이 필요한 부분
- [00:30] 구간의 “인도를 단순 소비 시장으로 보지 않는다”는 발언은 문제 제기 수준에서 짧게 지나가므로, 당시 그가 염두에 둔 구체적 대안 모델이 무엇인지는 후반 [27:44] 구간과 대조해 다시 확인필요가 있다.
- 규제 관련 대목에서 언급된 “일정 매출 이하 기업 면제” 구조가 정확히 어떤 법안·정책안을 가리키는지는 section-detail만으로 특정되지 않는다. 실제 적용 기준과 관할 범위는 별도 검증이 필요하다.
- 해석 가능성, 정렬, 헌법 기반 접근이 “예상보다 잘 작동했다”는 평가는 인터뷰이의 자기평가로 읽어야 하며, 연구 성과의 객관적 수준이나 업계 대비 우위는 transcript 외부 근거 없이 단정하기 어렵다.
✅ 액션 아이템
- [00:30]과 [27:44]의 인도 관련 발언을 함께 검토해, “시장”이 아니라 “파트너 생태계”라는 관점이 실제로 어떻게 연결되는지 한 문단으로 재정리한다.
- 규제 파트([12:06] 전후)에서 언급된 법안 또는 정책 제안의 실명을 확인하고, “대기업 우선 규제” 주장과 실제 조항을 구분해 메모한다.
- “쓰나미” 비유가 등장하는 초반과 [16:05] 구간을 다시 대조해, 인터뷰의 핵심 경고가 기술 그 자체보다 사회적 둔감함에 있는지 표현을 정밀하게 다듬는다.
- [18:18]의 “개인을 깊이 이해하는 모델” 대목은 도움과 위험이 함께 제시되므로, 후속 편집 시 “조력”, “조작”, “수익모델”의 세 축으로 나눠 압축한다.
❓ 열린 질문
- 인터뷰이가 말하는 가장 큰 실패는 기술 통제의 부족일까, 아니면 사회와 정부가 위험을 체감하지 못하는 인식 실패일까?
- AI 권력 집중을 스스로 불편해하면서도 초거대 모델 경쟁에 참여하는 태도는, 현실적 책임감일까 아니면 구조적 모순일까?
- “사용자를 깊이 이해하는 모델”이 긍정적 조력자가 되기 위해서는 광고 모델 회피 외에 어떤 제품 설계와 거버넌스 장치가 필요할까?