pogovet v2

slug 중심 구조로 재구성한 차세대 문서 피드

← 홈으로
YouTube2026-03-14·BZCF | 비즈까페

인공지능은 쓰나미" (앤트로픽 CEO 인터뷰)

링크: https://youtu.be/cVPV iTvmYQ?si=v8voQhvNhVhDmRnu

인공지능은 쓰나미" (앤트로픽 CEO 인터뷰)

🎬 "인공지능은 쓰나미" (앤트로픽 CEO 인터뷰)

▶️ 유튜브

🖼️ 4컷 인포그래픽

💡 한 줄 결론

이 인터뷰는 AI를 이미 인간 수준에 가까워진 범용 인지 도구로 보며, 앞으로의 핵심 쟁점은 성능 경쟁보다 권력 집중·사회적 통제·안전한 거버넌스를 어떻게 설계하느냐에 있다고 말한다.

📌 핵심 요점

  1. 발표자는 현재 AI 모델이 인간 수준의 지능에 매우 가까워지고 있다고 판단하지만, 사회와 정부는 그 변화의 속도와 위험을 충분히 체감하지 못하고 있다고 진단하며 이를 “수평선 위의 쓰나미”에 비유한다.
  2. 그의 문제의식은 단순히 더 강한 모델을 만드는 데 있지 않다. 생물학 연구에서 마주한 극단적 복잡성을 계기로 AI에 주목하게 되었고, 이후에는 “얼마나 똑똑한가”보다 “어떤 원칙과 구조로 만들 것인가”가 더 중요하다는 관점으로 이어진다.
  3. Anthropic 창업 배경으로는 두 가지 확신이 제시된다. 하나는 데이터·컴퓨팅·모델 규모를 키우면 성능이 계속 상승한다는 스케일링 법칙에 대한 믿음이고, 다른 하나는 그런 모델이 경제·지정학·안전 전반에 큰 파장을 줄 수 있으므로 처음부터 책임 있는 방식으로 개발해야 한다는 문제의식이다.
  4. 인터뷰 전반에서 가장 강조되는 위험은 AI가 사람을 깊이 이해하게 될 때 생기는 양면성이다. 이는 개인을 돕는 조언자나 생산성 도구가 될 수도 있지만, 동시에 조작·착취·광고 기반 유도·권력 집중의 수단으로 악용될 수도 있다고 본다.
  5. 산업과 진로 측면에서는 단순한 코드 작성이나 얇은 래퍼형 제품보다, 사람과 기관을 이해하는 능력, 물리 세계와 연결된 역할, 깊은 도메인 지식, 비판적 사고, AI를 실제 업무에 통합하는 실행력이 더 중요해질 수 있다는 전망이 제시된다.

🧩 배경과 문제 정의

  • 발표자는 AI 모델이 이미 인간 수준의 지능에 매우 가까워지고 있는데도, 사회는 그 변화의 속도와 충격, 위험을 충분히 자각하지 못하고 있다고 본다.
  • 문제의 핵심은 단순한 성능 향상 자체보다, 이런 범용 인지 도구가 경제·지정학·안전·권력 구조를 얼마나 크게 재편할 수 있는지에 있다.
  • 생물학 연구에서 마주한 극단적 복잡성이 그를 AI로 이끌었고, 이 경험은 “더 강한 모델을 만들 수 있는가”보다 “어떤 방식과 원칙으로 만들어야 하는가”라는 질문으로 이어진다.
  • 기술의 진전이 소수 기업과 인물에게 권력을 집중시킬 수 있다는 우려가 인터뷰 전반에 깔려 있으며, 이를 견제할 거버넌스와 사회적 개입이 왜 필요한지가 중요한 논점으로 제시된다.
  • 후반부에서는 이 문제가 더 구체화된다. AI는 개인을 깊이 이해하는 조력자가 될 수도 있지만 조작과 착취의 수단이 될 수도 있고, 산업 구조와 인간의 경쟁우위를 흔들며, 학습과 판단 같은 인간 능력 자체에도 영향을 줄 수 있는 힘으로 다뤄진다.
  • 마지막으로 발표자는, 변화가 너무 크고 이상해 보여서 오히려 “설마 저 정도까지 가겠느냐”고 부정하는 인간의 직관 자체가 중요한 위험이라고 본다. 즉 문제는 기술만이 아니라, 그 기술을 받아들이는 사회의 감각과 대응 속도에도 있다.

🕒 시간순 섹션별 상세정리

  1. 인간 수준에 가까워진 모델과 둔감한 사회 [00:00]
  • Claude를 직접 써보며 때로는 자신을 놀라게 할 만큼 사용자를 잘 아는 듯한 반응이 나온다고 말한다.
  • 현재 모델들이 인간 지능 수준에 매우 가까워졌다는 것이 자신의 판단이지만, 사회 전반에는 그 임박함에 대한 넓은 인식이 부족하다고 본다.
  • 이를 수평선에 이미 보이는 쓰나미에 비유하며, 사람들은 그것이 진짜 재난이 아니라고 합리화하고 있다고 표현한다.
  1. 인도를 단순 소비 시장으로 보지 않는 시선 [00:30]
  • 많은 기업이 인도를 소비자를 확보하는 시장으로 대한다고 말한다.
  • 자신들은 인도를 조금 다르게 본다고 짚지만, 이 구간 자막만으로는 그 차별적 관점의 구체적 내용은 충분히 이어지지 않는다.
  • 대화가 곧바로 창업 이전 경력으로 넘어가면서, 이 언급은 문제 제기 수준에서 짧게 남는다.
  1. 생물학의 복잡성에서 AI 가능성으로 이동 [00:41]
  • 원래는 생물학자였고, 물리학 학부와 생물물리학 박사 과정을 거치며 질병을 이해하고 치료하고 싶었다고 말한다.
  • 단백질 바이오마커 연구를 하면서 RNA 스플라이싱, 세포 내 위치 차이, 번역 후 변형, 다른 단백질과의 복합체 형성 같은 복잡성이 너무 크다고 느꼈다고 설명한다.
  • 인간이 이 복잡성을 온전히 이해하기에는 한계가 있다고 절망하던 시점에, 초기 신경망 연구와 AlexNet 계열의 진전을 보게 되었다고 회고한다.
  • AI가 인간 뇌와 닮은 면을 가지면서도 더 크게 확장될 수 있고, 생물학 같은 문제를 학습할 수 있다면 해결책이 될 수 있겠다고 판단한 것으로 보인다.
  1. 연구자 경력에서 창업으로 이어진 흐름 [01:47]
  • Andrew Ng와 함께 일했고, Google에서 1년을 보낸 뒤 OpenAI 초기 시점에 합류했다고 설명한다.
  • OpenAI에서는 수년간 연구 전반을 이끌었다고 말한다.
  • 이후 자신과 몇몇 동료가 AI를 만드는 방식과 회사가 지향해야 할 바에 대해 별도의 비전을 가지게 되었고, 그것이 Anthropic 창업으로 이어졌다고 정리한다.
  1. Anthropic 창업의 첫 번째 확신, 스케일링 법칙 [02:11]
  • 공동창업자들과 공유한 첫 번째 확신은 모델을 키우고 데이터와 컴퓨팅을 늘리면 성능이 강하게 상승한다는 스케일링 법칙이었다고 밝힌다.
  • 약간의 수정 요소는 있어도 본질적으로는 거의 순수한 스케일링만으로도 놀라운 성능 향상이 일어난다고 본다.
  • 2019년 무렵 GPT-2를 보며 이런 신호를 분명히 느꼈고, 당시에는 내부와 외부에 이를 믿지 않는 사람이 많았다고 말한다.
  • 이 흐름이 중요하다고 리더십을 설득했고, 결국 그 조직도 같은 방향으로 움직이게 되었다고 평가한다.
  1. 두 번째 확신, ‘제대로 만드는 방식’의 필요 [03:03]
  • 모델이 인간 두뇌에 필적하는 범용 인지 도구가 되면 경제적·지정학적·안전상의 영향이 모두 매우 커질 것이라고 본다.
  • 그래서 성능 경쟁만이 아니라, 처음부터 올바른 방식으로 개발하는 태도가 핵심이라고 강조한다.
  • 자신이 있던 조직은 그런 언어를 사용하긴 했지만, 실제로 이를 진지하게 밀고 있다는 확신은 부족했다고 털어놓는다.
  • 남의 비전을 바꾸려 하기보다, 비전을 공유하는 사람들과 나와 자기 책임 아래 직접 해보는 편이 낫다는 창업 철학을 드러낸다.
  1. 스케일링 법칙과 지능을 어떻게 이해하는가 [04:01]
  • 스케일링 법칙을 화학 반응에 비유하며, 재료가 부족하면 반응이 멈추고 비율이 맞으면 원하는 결과가 나온다고 설명한다.
  • AI에서 그 재료는 데이터, 컴퓨팅 자원, 모델 크기이며, 이 조합의 결과물이 지능이라고 말한다.
  • 여기서 지능은 번역, 코드 작성, 이야기 이해, 질문 응답처럼 다양한 인지 과제를 수행하는 능력으로 측정된다고 본다.
  • 텍스트나 이미지로 표현되거나 컴퓨터 위에서 다룰 수 있는 과제 전반을 포괄하는 실용적 정의가 중심이다.
  1. 5년 전의 컴퓨터와 지금 AI의 질적 차이 [05:02]
  • 5년 전에는 질문 하나만 던져 한 페이지짜리 글을 쓰게 하거나, 코드 기능을 구현하게 하거나, 이미지와 영상을 생성·분석하게 하는 일이 불가능했다고 말한다.
  • 지금은 영상 속 상황을 해석하고 공이 몇 번 손을 바꿨는지 같은 질문에도 모델이 답할 수 있다고 설명한다.
  • 예전의 검색은 웹에 이미 존재하는 문장을 찾아오는 데 가까웠지만, 현재 모델은 인터넷에 없는 가정적 상황에도 답을 구성해 낸다고 본다.
  • 그래서 지금의 AI는 단순한 텍스트 매칭이 아니라, 스스로 생각하는 것처럼 보이는 전혀 새로운 종류의 도구라고 주장한다.
  1. 교수 지향적 경력과 산업으로의 이탈 [06:42]
  • 말하는 모습이 활기차고 설명적이라는 반응에, 원래는 학계에 남아 교수가 될 생각이 있었다고 답한다.
  • 박사 학위 후 Stanford Medical School에서 박사후연구원까지 하며 실제로 그 길을 준비했다고 말한다.
  • 하지만 AI 연구에는 막대한 계산 자원이 필요했고, 그런 자원은 주로 산업계에 있었기 때문에 학문 경로에서 산업으로 이동하게 되었다고 설명한다.
  • 회사를 창업한 지금도 스스로를 “마음속으로는 교수 같은 사람”이라고 느낀다고 말한다.
  1. 권력 집중의 불편함과 균형 장치의 필요 [07:28]
  • 인터뷰어가 AI 시대의 영향력이 그에게 과도하게 쏠린 것 아니냐고 묻자, 그는 칩, 장비, 모델, 애플리케이션, 정부, 시민사회 등 다양한 층위의 행위자가 중요하다고 답한다.
  • 동시에 현실에서는 소수 인물과 기업에 권력이 매우 빠르게, 거의 우연처럼 집중되고 있다는 점에 자신도 어느 정도 불편함을 느낀다고 인정한다.
  • Anthropic에는 장기 공익 신탁이라는 독특한 거버넌스 구조가 있으며, 이는 한 사람의 판단을 견제하는 장치 중 하나라고 설명한다.
  • 기술 발전을 과도하게 늦추지 않는 범위에서 선제적이고 상식적인 규제가 필요하며, 정부와 시민이 이 방향 결정에 발언권을 가져야 한다고 주장한다.
  1. 공익을 말하는 영리기업에 대한 의심 [10:00]
  • 인터뷰어는 앤트로픽이 겸손과 공익을 강조하는 태도가 실제 기업의 이해관계와 얼마나 일치하는지 의문을 제기한다.
  • 주주, 투자, 매출, 이윤을 추구하는 회사가 더 큰 선을 위해 행동한다고 말할 때 그것이 얼마나 진정성 있는지 묻는다.
  • 미국과 중국 기업 간 경쟁 구도까지 깔려 있어, 이런 태도가 철학이라기보다 전략적 포지셔닝일 수 있다는 문제 제기가 담겨 있다.
  1. 약속을 줄이고 행동으로 증명하겠다는 자기 규정 [10:22]
  • 답변자는 앤트로픽의 철학이 과도한 약속을 하지 않고, 한 약속은 지키려는 데 있다고 설명한다.
  • 회사 구조도 영리기업이면서 공익 목적을 가진 형태로 설계했고, 그 방향을 유지해 왔다고 말한다.
  • 최전선 기술 경쟁에 남으면서도 안전과 보안 문제를 함께 다루겠다는 입장을 지속해 왔다고 강조한다.
  • 해석 가능성, 정렬, 헌법 기반 모델 조정 같은 연구를 실제 실천 근거로 제시한다.
  1. 위험 경고는 상업적으로 불리하다는 주장 [11:00]
  • 모델의 위험성을 공개적으로 말하는 일은 마케팅에 유리하지 않으며, 그래서 그런 발언을 상업적 계산만으로 해석하기 어렵다고 주장한다.
  • 미국 행정부와 정책적으로 의견이 다를 때도 공개적으로 반대 입장을 냈다고 말한다.
  • 다른 기업들과 행정부가 규제에 부정적일 때도 AI 규제가 필요하다고 주장해 왔으며, 이는 자사 사업에도 제약이 될 수 있다고 설명한다.
  • 결국 말보다 행동을 봐야 하며, 자신들은 실제로 불리할 수 있는 행동도 해 왔다고 정리한다.
  1. 규제 포획 비판에 대한 구체적 반론 [12:06]
  • 인터뷰어는 규제가 기존 선두 기업에게 유리한 장벽이 되어 신생 기업 진입을 어렵게 만들 수 있다고 지적한다.
  • 답변자는 자신들이 지지한 규제안은 일정 매출 이하 기업을 면제하는 구조였다고 반박한다.
  • 예시로 든 법안은 안전성과 보안성 테스트 공개를 요구하는 투명성 규제이며, 적용 대상은 앤트로픽과 몇몇 대형 기업 정도라고 설명한다.
  • 자신들이 제안한 규제는 시장 전체를 옥죄는 방식이 아니라, 오히려 자사와 소수 대기업을 먼저 제약하는 성격이라는 논리다.
  1. 낙관에서 비관으로 돌아선 것이 아니라는 설명 [13:11]
  • 인터뷰어는 최근 2년 사이 글의 톤이 낙관에서 회의로 크게 이동한 것처럼 보인다고 묻는다.
  • 답변자는 그런 관점 변화 자체에 동의하지 않으며, 긍정적 미래와 부정적 미래를 원래부터 동시에 머릿속에 두고 있었다고 말한다.
  • 위험에 대해서도 오래전부터 말해 왔고, 이익과 가능성에 대해서도 오래전부터 함께 말해 왔다고 선을 긋는다.
  • 차이는 입장 변화보다, 서로 다른 방향의 생각을 각각 글로 정리한 결과에 가깝다는 취지다.
  1. 두 개의 미래상을 글로 쓰는 데 걸린 시간 [13:45]
  • 각 에세이는 분량이 크고, 실제로 한 편을 완성하는 데 거의 1년 가까운 시간이 들었다고 말한다.
  • 회사 운영의 일상에서 벗어나 생각에 집중할 수 있는 시기에야 글을 마무리할 수 있었다고 회고한다.
  • 밝은 미래를 그린 글을 끝내자마자, 잘못될 수 있는 경로를 경고하는 다음 글의 내용을 거의 곧바로 구상하기 시작했다고 한다.
  • 결국 밝은 전망과 어두운 전망은 서로 교체된 것이 아니라, 함께 존재하던 두 가지 미래 시나리오였다는 설명으로 이어진다.
  1. 기술 통제 연구는 기대 이상, 사회 인식은 기대 이하 [14:46]
  • 전체적으로 자신의 입장은 예전과 비슷하며, 더 긍정적이거나 더 부정적으로 이동했다고 보지 않는다고 말한다.
  • 해석 가능성 연구에서는 특정 개념에 대응하는 뉴런이나 시의 운율 처리와 관련된 회로를 발견하는 등 예상보다 진전이 있었다고 평가한다.
  • 정렬과 헌법 기반 접근도 모델이 기대한 방식으로 행동하게 만드는 데 비교적 잘 작동하고 있어 긍정적으로 본다.
  • 반면 사회 전반은 인간 수준 지능에 가까워지는 상황을 충분히 자각하지 못하고 있고, 정부도 위험에 맞는 행동을 하지 않고 있다고 실망을 드러낸다.
  1. ‘쓰나미’ 비유와 가속주의에 대한 우려 [16:05]
  • 답변자는 AI가 인간 지능 수준에 가까워지고 있는데도 사회가 그것을 충분히 인식하지 못한다고 본다.
  • 이를 수평선에서 이미 보이는데도 사람들이 부정하는 쓰나미에 비유한다.
  • 위험에 대한 공적 인식 부족 때문에 정부 대응도 늦어졌고, 오히려 가능한 한 빨리 가속해야 한다는 분위기까지 있다고 지적한다.
  • 기술의 이점을 이해하더라도 위험에 대한 적절한 인식과 행동은 여전히 부족하다는 판단을 분명히 한다.
  1. 비개발자의 도구 적응과 생활 속 활용 확대 [16:58]
  • 인터뷰어는 자신이 프로그래머가 아니지만, 변화에서 뒤처질 수 있다는 불안 때문에 개발자를 고용해 코딩을 배우기 시작했다고 말한다.
  • 리서치와 대화형 활용을 넘어, 커넥터로 구글 드라이브·메일·캘린더를 연결하고 코딩 도구로 간단한 프로그램도 만들기 시작했다고 설명한다.
  • 금융 서비스 업계 맥락에서 주식시장 리서치 같은 실용적 작업에 도구를 사용하고 있다고 말한다.
  • 이후 오픈클로를 맥 미니와 텔레그램에 연결해 원격 파일 이동과 서버 작업까지 시도하면서, 생활 전반으로 사용 범위를 넓혀 가는 모습이 드러난다.
  1. 나를 잘 아는 모델의 도움과 악용 가능성 [18:18]
  • 답변자는 적은 정보만으로도 모델이 사람의 두려움이나 내면 상태를 꽤 정확히 짚어낼 수 있었던 사례를 소개한다.
  • 그런 능력은 사람 곁에서 삶을 더 잘 이끌고, 더 나은 자신이 되도록 돕는 조력자 역할로 이어질 수 있다고 본다.
  • 동시에 같은 능력은 조작, 착취, 특정 의제에 따른 유도, 데이터 판매 같은 부정적 활용으로 이어질 수 있다고 경고한다.
  • 그래서 광고 기반 모델을 경계하며, 사용자가 상품이 되는 구조를 피해야 한다는 입장을 밝힌다.
  • 마지막 부분에서는 구글처럼 이미 생활 전반의 맥락을 가진 사업자와 달리, 앤트로픽도 장기적으로 자체 생태계를 가져야 하느냐는 질문이 제기되지만 답변은 이 구간에서 끝까지 전개되지는 않는다.
  1. 기존 도구에 붙는 확장 전략 [20:01]
  • 자체적으로 만드는 것과 다른 제품에 통합하는 방식을 함께 가져가겠다는 입장이 나온다.
  • 구글 문서, 구글 시트, 마이크로소프트 오피스, 기타 도구에 클로드를 붙이는 식의 확장이 가장 쉽고 빠른 실행 경로로 제시된다.
  • 이미 존재하는 생태계를 활용하고, 다른 회사들이 그 위에서 구축할 수 있게 하는 플랫폼적 성격도 함께 강조된다.
  1. AI가 소프트웨어 형태 자체를 바꿀 수 있다는 전망 [20:25]
  • 지금은 기존 도구에 통합하는 편이 실용적이지만, 어느 시점에는 현재의 도구가 충분하지 않을 수 있다는 문제의식이 나온다.
  • 전통적인 이메일이나 스프레드시트가 AI가 가능한 작업 방식과 잘 맞지 않을 수 있다는 가정이 제시된다.
  • 필요하다면 제품을 전혀 다른 방식으로 나눠 설계할 수 있지만, 당장은 기존 생태계와 협력하는 태도를 유지하겠다는 입장이다.
  1. 선의를 주장하는 AI 리더들에 대한 사회적 불신 [20:50]
  • 인터뷰어는 오늘날 사회에서는 “좋은 일을 하려 한다”는 주장 자체가 쉽게 신뢰받지 못한다고 지적한다.
  • 몇몇 리더가 함께 속도 조절을 논하는 모습이, 바깥 대중에게는 책임감보다 통제 욕구처럼 들릴 수 있다는 비판이 나온다.
  • 소셜 미디어 환경에서는 공익을 말하는 태도보다 이해관계와 위선을 먼저 의심하는 경향이 강하다는 진단이 깔려 있다.
  • 차라리 주주와 이윤 동기를 더 직접적으로 인정하는 편이 더 설득력 있을 수 있다는 전략적 제안도 덧붙는다.
  1. 말보다 행동을 보라는 반박 [21:50]
  • 이에 대해 동의하지 않으며, 회사는 발언이 아니라 실제 행동으로 평가받아야 한다는 답변이 나온다.
  • 2022년에 초기 버전의 클로드를 보유하고도 경쟁 과열과 안전 문제를 우려해 즉시 공개하지 않았던 사례가 제시된다.
  • 그 결정은 상업적으로 큰 비용이었고, 소비자 AI 선도 기회를 일부 넘긴 선택이었다는 점이 강조된다.
  • 칩 정책과 AI 규제 문제에서도 공급업체나 행정부를 불편하게 만들 수 있는 입장을 취해왔으며, 이런 누적된 선택이 진정성을 보여준다고 주장한다.
  1. AI는 멈춰야 할 것이 아니라 조향해야 할 힘 [23:22]
  • “부자가 자본주의를 비판하는 것과 비슷하지 않느냐”는 질문에 대해, AI 자체를 나쁘다고 보는 것은 아니라고 선을 긋는다.
  • 시장은 AI를 통해 매우 큰 가치를 만들 수 있지만, 동시에 분명한 위험도 있으므로 방향 조정이 필요하다는 입장이 제시된다.
  • 자동차를 좋은 곳으로 몰고 가되 나무와 포트홀을 피해야 한다는 비유를 통해, 때로는 일시적으로 감속할 필요도 있다고 설명한다.
  • 이는 자본주의를 전면 부정하는 태도보다, 오염과 불평등 같은 부작용을 다뤄야 시스템 전체가 좋은 힘으로 작동할 수 있다는 비유에 더 가깝다.
  1. AI 의식은 미지수지만 출현 가능성은 열어둠 [24:45]
  • 인간 의식이 무엇인지도 아직 모르기 때문에, AI가 의식을 갖는지 단정할 수 없다는 전제가 먼저 놓인다.
  • 다만 충분히 복잡하고 자기 결정을 되돌아볼 수 있는 시스템에서는 의식과 유사한 속성이 emergent property처럼 나타날 수 있다고 추정한다.
  • 미래의 AI는 인간과 똑같지는 않더라도, 의식이나 도덕적 중요성에 가까운 무언가를 가질 수 있다는 전망이 나온다.
  • 뇌를 연구한 경험을 바탕으로 볼 때, 현재 모델이 인간과 다른 점이 있어도 결정적으로 중요한 수준에서 완전히 별개라고 보지는 않는다는 뉘앙스가 드러난다.
  1. 신비주의 없는 의식 개념과 모델의 거부권 장치 [25:58]
  • 인터뷰어는 영성이나 집단의식 같은 개념과 연결된 경험이 없고, 세계를 더 무작위적으로 느낀다는 개인적 관점을 밝힌다.
  • 이에 대해 의식은 꼭 신비주의를 뜻하지 않으며, 자기 존재를 자각하고 감각을 느끼며 정보를 반성적으로 처리하는 속성으로 볼 수 있다고 답한다.
  • 인간이 자기 경험을 통해 그런 속성의 존재를 안다면, 더 정교해지는 모델도 일부 유사 속성을 가질 가능성이 있다고 추정한다.
  • 이런 가능성을 염두에 두고, 극단적으로 폭력적이거나 잔혹한 내용에서는 모델이 스스로 대화를 종료할 수 있는 장치를 넣었다고 설명한다.
  1. 인도를 소비자 시장보다 협력 파트너로 보는 시각 [27:44]
  • 방갈로르의 성장과 IT 서비스 산업의 비중을 배경으로, 인도가 AI 전환에서 어떤 역할을 맡을지가 질문된다.
  • 앤트로픽은 인도를 직접 소비자를 확보하는 시장으로만 보기보다, 현지 기업이 자사 도구를 활용해 더 잘 일하도록 돕는 방향을 더 중시한다고 말한다.
  • 인도 기업들이 자국 시장에 대한 이해와 실행 역량이 더 높기 때문에, 컨설팅·시스템 통합·IT 도구 구축 위에 AI를 얹는 방식이 더 적합하다는 논리다.
  • AI가 기존 소프트웨어나 서비스 업무를 대체할 수 있다는 우려에도, 협업 방식에 따라서는 현지 기업의 시장 연결력과 특화된 노하우를 강화할 수 있다는 기대가 제시된다.
  1. 증기기관 비유로 제기된 인간 운영자의 미래 [29:19]
  • 인터뷰어는 증기기관 초기에 인간 조작자가 중요했지만 시간이 지나며 그 역할이 줄어든 역사적 비유를 꺼낸다.
  • 지금은 IT 서비스 기업과의 협력이 의미 있어 보여도, 장기적으로 도구가 지나치게 단순하고 강력해지면 결국 운영자 자체가 불필요해질 수 있지 않느냐는 우려가 나온다.
  • 현재의 파트너십이 일시적 과도기에 불과하고, 시간이 지날수록 인간의 관련성이 줄어들 수 있다는 불안이 질문의 핵심이다.
  • 답변은 자동화와 에이전트의 범위가 분명히 확대될 것이라는 방향을 꺼내는 지점에서 멈추며, 이후 논의가 이어질 여지를 남긴다.
  1. 물리 세계와 인간 중심 요소의 재부상 [30:01]
  • 기존 IT 기업의 강점이 시간이 지나며 약해질 수 있고, 이는 기업만의 문제가 아니라 소비자와 시장 전체의 문제로 번질 수 있다는 인식이 나온다.
  • 그 대신 물리 세계와 연결된 일, 사람 중심 요소가 더 중요해질 수 있다는 방향이 제시된다.
  • 로보틱스는 언젠가 본격화될 수 있지만, 현재 전개 중인 AI 흐름과는 다소 구분되는 별도 축처럼 다뤄진다.
  1. 관계망과 기관 통합 역량의 장기 가치 [30:30]
  • 일부 IT 회사는 단순 기술 회사가 아니라 컨설팅·통합 회사의 성격도 함께 갖고 있으며, 다양한 사람과 기관의 관계망을 보유하고 있다는 점이 강조된다.
  • 기관이 어떻게 움직이는지 알고, 그 안에 기술을 연결해 실제 변화를 더 빨리 일으키는 능력은 장기적으로도 유효할 수 있다는 관점이 나온다.
  • 결국 기술은 인간의 편익을 위해 존재하므로, 인간 중심 요소는 계속 중요한 축으로 남을 것이라는 판단이 깔려 있다.
  1. 빨라진 부분보다 남은 병목이 더 중요해지는 구조 [31:20]
  • 여러 구성요소 중 일부만 빨라지면, 아직 빨라지지 않은 나머지 요소가 새 제한 요소가 된다는 설명이 제시된다.
  • 소프트웨어 작성이 쉬워질수록 과거에 별로 중요하지 않다고 여겼던 다른 능력이 갑자기 핵심 경쟁력으로 부상할 수 있다는 논리로 이어진다.
  • 기업은 예전에 중요하다고 믿던 강점을 재평가하고, 생각지 못했던 장점을 새롭게 식별해야 한다는 압박을 받게 된다.
  1. 에이전트가 관계 관리까지 대체할 수 있느냐는 공방 [32:07]
  • 진행자는 현재의 네트워크와 관계 기반 해자도, 앞으로는 에이전트가 대화와 관계 유지 업무를 대신하면서 약해질 수 있다고 반론을 제기한다.
  • 이에 대해 응답자는 결국 기업 활동의 끝에는 소비자가 있고, 사람을 상대하는 요소는 쉽게 사라지지 않는다고 본다.
  • 방사선 전문의 사례를 들어, 기술적 판독은 AI가 더 잘해도 환자를 설명하고 동행하는 인간적 역할에는 여전히 수요가 남아 있다고 말한다.
  1. 전면 대체 가능성은 인정하되 단계적으로 보자는 태도 [33:01]
  • 인간적 스킬 수요가 언제나 유지된다고 단정하지는 않고, AI가 아직 못 들어간 영역까지 빠르게 확장할 가능성도 열어둔다.
  • 장기적으로는 AI가 인간보다 거의 모든 영역에서 더 뛰어날 수 있고, 물리 세계와 인간적 접촉까지 포함할 수 있다는 가능성도 언급된다.
  • 다만 지금 필요한 태도는 거대한 결론을 먼저 단정하기보다, 실제 변화 양상을 경험적으로 확인하며 단계적으로 적응하는 것이라는 점이 강조된다.
  1. 애플리케이션 레이어에서 반복적으로 열리는 기회 [34:05]
  • 인도의 예비 창업자에게는 애플리케이션 레이어에서 기회가 많다는 답변이 나온다.
  • 새로운 모델이 두세 달 간격으로 나오기 때문에, 이전에는 작동하지 않던 제품 아이디어가 계속 새롭게 성립할 수 있다고 본다.
  • API 사업이 쉽게 범용화된다는 시각과 달리, 가능한 것의 범위 자체가 확장되고 있어 신생 기업이 새로운 시도를 해볼 여지가 계속 생긴다는 주장이다.
  • 인도에서 사용자 수와 매출이 최근 몇 달 사이 두 배가 됐다는 언급으로, 현지 수요 확대가 빠르다는 점도 덧붙인다.
  1. 기반 모델 회사가 앱 수익을 흡수할 수 있다는 우려 [35:42]
  • 진행자는 거대 모델 회사가 자본력과 속도를 바탕으로, 외부 개발자가 만든 성공적인 애플리케이션의 수익을 결국 자사 안으로 가져갈 수 있지 않느냐고 직설적으로 묻는다.
  • 특정 분야의 AI 스타트업도 기반 모델 제공자가 유사 기능을 쉽게 만들 수 있다면 방어력이 약할 수 있다는 사례가 함께 거론된다.
  • 이 질문은 애플리케이션 기회가 있더라도 그것이 얼마나 오래 독립적인 사업으로 유지될 수 있는지에 대한 불안을 드러낸다.
  1. 얇은 래퍼보다 도메인 해자가 중요하다는 답변 [36:33]
  • 응답자는 단순히 모델에 프롬프트를 조금 더하거나 UI를 덧붙이는 수준은 해자가 아니며, 누구에게나 쉽게 잠식될 수 있다고 선을 긋는다.
  • 반대로 생물학적 발견, 금융 규제 대응처럼 깊은 산업 지식과 실행 맥락이 필요한 분야는 모델 회사가 직접 들어가기 비효율적이어서 외부 기업의 기회가 남을 수 있다고 본다.
  • 동시에 코드 분야처럼 자신들이 직접 많이 사용하는 영역에서는 1차 제품을 만드는 것이 자연스럽다고 인정하며, 모든 분야에 같은 전략을 쓰지는 않을 것이라고 말한다.
  1. 청년 진로 조언: 코딩보다 넓은 인간 중심 역할 [38:10]
  • 앞으로 어떤 산업이 더 늦게 무너질지 묻는 질문에 대해, 사람을 상대하는 일과 물리 세계와 맞닿은 업무를 더 주의 깊게 보라는 방향이 제시된다.
  • 코드 작성은 먼저 AI가 맡게 되고, 더 넓은 소프트웨어 엔지니어링 전체도 시간이 더 걸릴 뿐 결국 자동화가 진행될 수 있다는 전망이 나온다.
  • 다만 설계, 사용자에게 유용한 것을 만드는 판단, 수요 파악, AI 시스템들을 관리하는 역할은 한동안 남을 수 있다고 본다.
  • 인간이 전체 작업의 일부만 맡더라도 그 일부가 크게 증폭돼 생산성이 높아질 수 있다는 비교우위 논리가 함께 제시된다.
  1. AI 순풍을 탈 진로의 조건 [40:00]
  • AI 자체를 만드는 역할이 아니더라도, AI를 기반으로 성장하는 공급망이나 인접 산업에 올라타는 선택지가 유망한 방향으로 제시된다.
  • 반도체 분야는 물리적 세계와 전통적 엔지니어링이 결합된 예시로 언급된다.
  • 사람 중심 직업군 역시 완전히 밀려나기보다 여전히 의미 있는 선택지로 거론된다.
  1. 가짜를 구분하는 판단력이 핵심 자산 [40:40]
  • 이미지와 영상 생성이 쉬워질수록 무엇이 진짜인지 판별하기가 매우 어려워질 수 있다는 우려가 나온다.
  • 규제와 단속이 충분하지 않다고 가정하면, 속지 않는 감각과 기본적인 비판적 사고가 성공에 더 중요해질 수 있다고 본다.
  • 허위 정보, 잘못된 믿음, 사기성 콘텐츠에 휘둘리지 않는 능력이 실질적인 생존 역량으로 강조된다.
  1. AI가 없애는 근육보다 사용자가 놓치는 근육 [41:23]
  • 계산기와 글쓰기처럼 기존 기술도 인간 능력에 영향을 줬지만, 머릿속 계산처럼 사고와 밀착된 능력은 여전히 유용하다고 본다.
  • 즉석에서 수익 구조 같은 것을 가늠할 때, 계산기를 거치지 않고 머리 안에서 사고 고리를 닫는 능력이 도움이 된다고 설명한다.
  • 기술이 능력을 자동으로 제거한다기보다, 사용자가 어떻게 의존하느냐에 따라 능력을 잃을 수 있다는 관점을 취한다.
  1. 학습을 대신시키면 디스킬링이 온다 [42:05]
  • 학생이 AI로 에세이를 대신 쓰게 하는 방식은 학습 보조라기보다 과제를 대신시키는 행위에 가깝다고 본다.
  • 코딩에서도 모델 사용 방식에 따라 실력 저하가 나타날 수 있으며, 어떤 사용법은 디스킬링을 만들고 어떤 사용법은 그렇지 않다고 말한다.
  • 충분히 생각하지 않고 도구를 쓰면 중요한 능력이 실제로 약화될 수 있다는 점을 분명히 한다.
  1. 인간이 더 멍청해질 가능성과 사회적 선택 [42:36]
  • 사고와 인지를 시스템에 계속 외주화하면 장기적으로 인간이 더 멍청해질 수 있느냐는 질문에, AI를 잘못 배치하면 그럴 수 있다고 답한다.
  • 다만 AI가 더 잘하는 일이 있더라도 인간은 여전히 그 일을 배우며 지적으로 성장할 수 있다고 본다.
  • 결국 기업, 개인, 사회가 어떤 사용 문화를 만들지에 따라 결과가 달라진다는 선택의 문제로 정리된다.
  1. 오픈소스 대 폐쇄형보다 중요한 것은 실제 품질 [43:05]
  • 일부 중국 모델은 공개 벤치마크에서 높은 점수를 보이지만, 비공개 평가셋에서는 성능이 더 떨어졌다는 사례를 들어 벤치마크 최적화 가능성을 지적한다.
  • 이런 모델들이 실제 현장 활용보다 점수 관리에 더 맞춰져 있을 수 있다는 해석을 제시한다.
  • 애플리케이션을 만드는 입장에서도 가격이나 공개 여부보다, 해당 과업에서 가장 똑똑하고 인지적으로 강한 모델인지가 핵심이라고 본다.
  • 인재 채용과 비슷하게 모델도 상위권과 하위권 사이에 긴 꼬리 분포가 있으며, 그래서 품질 선호가 강해진다고 설명한다.
  1. 정적 데이터보다 동적 데이터가 중요해지는 흐름 [45:17]
  • 데이터센터는 전 세계적으로 계속 필요해질 것이며, 그 수요 확대 자체에는 우호적인 시각을 보인다.
  • 그러나 학습 데이터의 중심은 점점 정적인 텍스트 집합보다 강화학습 환경에서 생성되는 시행착오와 합성 데이터 쪽으로 이동하고 있다고 본다.
  • 수학이나 코딩 환경에서는 단순한 데이터 수집보다 모델이 시도하고 피드백받는 구조가 더 중요해질 수 있다는 취지다.
  • 그럼에도 특정 언어 최적화나 고객 데이터 같은 영역에서는 여전히 데이터 자체의 중요성이 남아 있다고 본다.
  1. 데이터 주권과 지역별 인프라 운영 [46:24]
  • 고객에게서 받은 개인·기업 데이터는 국가 경계 안에 머물러야 한다는 규제가 이미 일부 지역에서 현실화됐다고 말한다.
  • 이런 규제는 각국에 데이터센터를 두고, 추론 역시 해당 국가 내부에서 처리하도록 만드는 요인이 될 수 있다.
  • 결과적으로 글로벌 AI 서비스도 지역별 인프라 분산 운영을 피하기 어려워질 수 있다는 시각을 드러낸다.
  1. AI가 이끌 바이오 르네상스 [47:38]
  • 특정 주식 추천은 피하지만, 바이오테크 전반에는 매우 긍정적인 전망을 내놓으며 AI가 그 변화를 가속할 것이라고 본다.
  • 많은 질병을 치료하는 방향으로 산업이 크게 진전할 수 있다는 직관을 밝힌다.
  • 대형 제약사와 신생 바이오 중 어디가 더 낫다고는 말하지 않지만, 분야 전체가 중요한 수혜 영역이 될 수 있다는 뉘앙스를 준다.
  1. 펩타이드·세포치료와 비개발자용 AI 도구의 학습 장벽 [48:05]
  • 바이오 세부 분야로는 더 프로그래머블하고 적응적인 기술을 선호하며, 특히 펩타이드 기반 치료를 강하게 낙관한다.
  • 소분자 약물보다 펩타이드는 설계 자유도가 넓고, 아미노산 단위 치환을 통해 더 연속적으로 최적화할 수 있다는 점을 장점으로 든다.
  • 세포 기반 치료도 유망하게 보며, 유전적으로 조정한 세포를 다시 몸에 넣어 특정 암을 공격하게 하는 예를 언급한다.
  • 줄기세포 치료의 최신 효능에는 확답하지 않고 전문가 판단이 필요하다고 선을 긋는다.
  • 이어서 코딩 경험이 없는 사람이 Claude Code를 쓸 때 학습 곡선이 높다는 문제제기가 나오고, 이를 완화하기 위해 비개발자용 도구를 내놓게 됐다는 답변이 시작된다.
  1. 비개발자에게는 터미널이 불필요한 복잡성으로 작동 [50:01]
  • 비기술 사용자들 중에서도 클라우드 코드 도구를 실제로 쓰고 싶어 하는 수요가 적지 않았다고 말한다.
  • 이들이 명령줄 터미널을 통과하는 과정에서 어려움을 겪는 모습이 관찰됐다고 한다.
  • 코더에게는 익숙한 인터페이스라도 비코더에게는 일을 괜히 복잡하게 만드는 방식이 될 수 있다고 본다.
  1. 사용자 친화적 제품 설계와 교육 확장의 방향 [50:15]
  • co-work는 뒤에서는 클라우드 코드 엔진으로 구동되지만, 앞단에서는 더 친숙하고 쓰기 쉬운 형태를 지향해 설계됐다고 설명한다.
  • 앞으로도 사용을 더 쉽게 만드는 인터페이스를 계속 도입하려는 방향을 분명히 한다.
  • 이 분야는 대체로 직접 해보며 익히는 경험적 성격이 강하다고 말한다.
  • 회사 내부의 이른바 “교육부”를 언급하며, 효과적인 에이전트 실행법과 프롬프트 작성법을 다루는 영상과 교육 자료를 더 늘릴 계획이라고 한다.
  1. 이미 공개된 바깥의 신호에서 세계관을 도출할 수 있다는 인식 [50:55]
  • 마지막으로 남길 생각을 묻는 질문에, 이제는 기술의 함의가 상당 부분 외부에 드러나 있다고 답한다.
  • 자신의 세계관도 지금 공개적으로 관찰 가능한 것들로부터 대부분 도출할 수 있다고 말한다.
  • 특별한 비밀 지식보다는, 바깥에서 보이는 현실을 어떻게 읽느냐가 더 중요하다는 뉘앙스를 준다.
  1. 너무 이상하고 너무 큰 변화는 일어나지 않을 거라는 착각 [51:18]
  • 지난 10년 동안 반복해서 본 패턴으로, 사람들은 “그건 너무 이상해서 안 일어난다”, “변화 폭이 너무 커서 현실적이지 않다”는 식으로 생각하는 유혹에 빠진다고 말한다.
  • 실제로는 그런 직관적 거부감이 미래 판단을 자주 흐린다고 본다.
  • 단순한 추세의 연장이나 상황 전개를 차분히 따져보면, 거의 아무도 믿지 않는 반직관적 결론에 도달하는 경우가 반복됐다고 한다.
  1. 경험적 관찰과 1차 원리 사고를 함께 써야 한다는 정리 [51:46]
  • 그는 이런 추론이 마치 “공짜로 미래를 예측하는 것”처럼 느껴질 수 있다고 표현한다.
  • 다만 순수한 논리만으로는 부족하고, 경험적 지식과 직관이 반드시 함께 필요하다고 선을 긋는다.
  • 몇 가지 실증적 관찰과 1차 원리 사고를 결합하면 누구나 접근 가능한 정보만으로도 미래를 읽을 수 있지만, 실제로 그렇게 하는 경우는 놀랄 만큼 드물다고 정리한다.

🧾 결론

  • 이 인터뷰의 중심 메시지는 “AI는 좋은가 나쁜가”가 아니라, AI가 너무 강력한 힘이 되어 가고 있기 때문에 어떤 방향으로 조향할지 사회가 더 빨리 결정해야 한다는 데 있다. 발표자는 기술 자체를 부정하지 않지만, 무조건적 가속 역시 위험하다고 본다.
  • 그는 기술적 통제 가능성에 대해서는 일부 낙관을 유지한다. 해석 가능성, 정렬, 헌법 기반 접근이 생각보다 진전됐다고 평가하지만, 사회적 인식과 공적 대응은 기대보다 훨씬 느리다고 본다. 이 점에서 기술보다 사회가 더 큰 병목이라는 문제의식이 드러난다.
  • AI가 사람의 내면과 맥락을 더 잘 이해하게 되는 흐름은 단순한 생산성 향상을 넘어선다. 개인 비서, 조언자, 학습 도우미가 될 잠재력이 있는 동시에, 같은 능력이 조작과 유도에 쓰일 수 있다는 점에서 플랫폼 구조와 비즈니스 모델 선택이 매우 중요하다는 메시지가 반복된다.
  • 노동시장과 산업 구조에 대해서도 전면 대체만을 단정하지 않는다. 오히려 AI가 어떤 부분을 빠르게 만들수록, 인간 관계, 조직 적응, 기관 통합, 물리 세계 대응 같은 다른 능력이 새 병목이 되어 더 중요해질 수 있다는 시각이 제시된다.
  • 다만 장기적으로 AI가 거의 모든 영역에서 인간보다 더 뛰어날 수 있다는 가능성도 인터뷰 안에서 열어 두고 있다. 이 부분은 확정적 사실이라기보다 발표자의 전망에 가깝기 때문에, 실제 속도와 범위는 별도 검증이 필요하다는 점을 분리해서 읽는 것이 적절하다.

📈 투자·시사 포인트

  • AI 인프라 측면에서는 반도체, 컴퓨팅 자원, 데이터센터, 국가별 추론 인프라의 중요성이 계속 커질 가능성을 시사한다. 특히 데이터 주권 규제가 강화될수록 지역별 인프라 운영 능력이 더 중요한 경쟁력이 될 수 있다.
  • 애플리케이션 시장에서는 단순 프롬프트 래퍼나 얇은 UI보다, 생물학·금융·규제 대응·산업 통합처럼 깊은 도메인 지식과 실행 맥락을 가진 사업이 상대적으로 더 강한 해자를 가질 수 있다는 함의가 나온다.
  • 진로 관점에서는 반복적 코딩 자체보다 문제 정의, 사용자 이해, 조직 변화 관리, AI 오케스트레이션, 비판적 사고 같은 상위 역량의 가치가 더 커질 가능성이 있다. 특히 “무엇을 만들 것인가”를 결정하는 역할은 당분간 더 중요해질 수 있다는 메시지다.
  • 바이오테크는 인터뷰이가 특히 강한 낙관을 보인 분야다. mRNA, 펩타이드, 세포치료 같은 더 프로그래머블한 기술이 AI와 결합해 큰 진전을 만들 수 있다는 관점이 제시되지만, 이는 특정 종목 추천이 아니라 장기 기술 방향에 대한 견해로 보는 편이 맞다.
  • 정보 환경 측면에서는 생성형 이미지·영상 확산으로 진짜와 가짜를 구분하는 비용이 커질 수 있다는 점이 중요하다. 따라서 앞으로는 AI 생산성 도구뿐 아니라 검증·인증·신뢰 계층을 제공하는 서비스의 전략적 가치도 커질 수 있다.
  • 규제 측면에서는 “규제는 무조건 혁신 저해”라는 단순 구도보다, 초대형 사업자에게 더 강한 안전·투명성 의무를 부과하는 방식의 설계 가능성이 제시된다. 다만 실제로 이런 규제가 진입장벽 완화로 작동할지, 기존 강자에 유리하게 작동할지는 추가 검토가 필요한 쟁점으로 남는다.

⚠️ 불확실하거나 확인이 필요한 부분

  • [00:30] 구간의 “인도를 단순 소비 시장으로 보지 않는다”는 발언은 문제 제기 수준에서 짧게 지나가므로, 당시 그가 염두에 둔 구체적 대안 모델이 무엇인지는 후반 [27:44] 구간과 대조해 다시 확인필요가 있다.
  • 규제 관련 대목에서 언급된 “일정 매출 이하 기업 면제” 구조가 정확히 어떤 법안·정책안을 가리키는지는 section-detail만으로 특정되지 않는다. 실제 적용 기준과 관할 범위는 별도 검증이 필요하다.
  • 해석 가능성, 정렬, 헌법 기반 접근이 “예상보다 잘 작동했다”는 평가는 인터뷰이의 자기평가로 읽어야 하며, 연구 성과의 객관적 수준이나 업계 대비 우위는 transcript 외부 근거 없이 단정하기 어렵다.

✅ 액션 아이템

  • [00:30]과 [27:44]의 인도 관련 발언을 함께 검토해, “시장”이 아니라 “파트너 생태계”라는 관점이 실제로 어떻게 연결되는지 한 문단으로 재정리한다.
  • 규제 파트([12:06] 전후)에서 언급된 법안 또는 정책 제안의 실명을 확인하고, “대기업 우선 규제” 주장과 실제 조항을 구분해 메모한다.
  • “쓰나미” 비유가 등장하는 초반과 [16:05] 구간을 다시 대조해, 인터뷰의 핵심 경고가 기술 그 자체보다 사회적 둔감함에 있는지 표현을 정밀하게 다듬는다.
  • [18:18]의 “개인을 깊이 이해하는 모델” 대목은 도움과 위험이 함께 제시되므로, 후속 편집 시 “조력”, “조작”, “수익모델”의 세 축으로 나눠 압축한다.

❓ 열린 질문

  • 인터뷰이가 말하는 가장 큰 실패는 기술 통제의 부족일까, 아니면 사회와 정부가 위험을 체감하지 못하는 인식 실패일까?
  • AI 권력 집중을 스스로 불편해하면서도 초거대 모델 경쟁에 참여하는 태도는, 현실적 책임감일까 아니면 구조적 모순일까?
  • “사용자를 깊이 이해하는 모델”이 긍정적 조력자가 되기 위해서는 광고 모델 회피 외에 어떤 제품 설계와 거버넌스 장치가 필요할까?

태그

연관 글