‘자동 운전(Autopilot) 모드’에서 벗어나기
대부분의 사람들은 인생의 거의 모든 영역을 ‘무의식적인 반복 루틴(Autopilot)’으로 살고 있으며, 이 과정을 의식하지 못한다.
이런 ‘무의식적 일상’을 탈피하여 “의도 있는 하루(의식적 삶)”로 전환해야 한다고 조언.
일반적인 예: 눈 뜨자마자 준비하고, 교통체증 뚫고 출근, 이메일 처리, 다시 퇴근, 저녁 먹고 잠드는 식으로 다음 날도 반복되는 생활. 이 과정에서 ‘내가 진짜로 가고 싶은 인생 경로’를 묻지 않음.
의도(인텐션) 설정: 하루 중 일정 시간을 확보해 “내가 정말 중요하게 여기는 가치, 앞으로 5~10년 뒤 모습, 이 시점에서 꼭 이루고 싶은 것” 등을 꾸준히 고민하고 행동 계획을 수립해야 함.
위버가 제안하는 방법 중 하나: ‘코치(Executive Coach)’ 고용 혹은 친구와의 정기 미팅 등, 스스로 점검하고 깊이 있는 질문을 주고받을 수 있는 장치를 마련하면 자동운전 모드에서 빠져나오기 수월함.
‘지니(Genie) 프레임워크’: “실패가 없다면 무엇을 할 것인가?”
자신이 ‘진짜로’ 하고 싶은 일의 근원을 찾기 위해, “만약 어떤 분야에 뛰어들어도 반드시 잘될 것이라는 요술램프(지니)의 보장이 있다면, 무엇을 하겠는가?”를 묻는다.
이 질문을 통해 ‘실패에 대한 두려움’ 없이 마음속 열망을 꺼내볼 수 있음.
학생 예시: 컨설팅 출신의 한 브라질 학생이 사실은 ‘브라질 교육격차 해소를 위한 비영리 단체’를 만들고 싶어 했으나, 실패·재정·경력 등의 문제로 망설였음.
지니 질문을 통해 본인이 진정 가고 싶었던 길(비영리 단체 설립)을 구체화했고, 강의 및 코칭 과정에서 두려움·제약 요인을 하나씩 극복하여 실제 실행으로 옮김.
위버 본인 역시 처음부터 명확한 미래 보장이 없었지만, “창업·투자 운영”이 자신의 지니 목표임을 깨닫고 도전했고 결국 성공적인 결과에 이르렀다고 밝힘.
‘나쁜 신념(Limiting Beliefs)’을 인식하고 해결하기
‘나는 돈이 부족해서 안 된다’, ‘경험이 없어서 안 될 것이다’, ‘가족을 부양해야 해서 못한다’ 등, 자신을 묶어두는 제한적 믿음들이 가장 큰 장애물이다.
먼저 이 믿음들을 글로 적어봄으로써,漠然(막연)했던 두려움을 구체적인 해결 과제로 전환할 수 있음.
브라질 학생 사례: “재원은 어떻게 확보하지?”, “사업계획이 전혀 없는데?” 등의 막연한 두려움 → 한 장의 종이에 모두 적은 뒤, 각각을 해결해야 할 ‘할 일(To-do)’로 전환함.
위버 본인의 예: “난 재능이 부족해, 난 사람들 앞에서 말 잘 못해” 같은 믿음을 오랜 기간 간직하고 있었으나, 이를 자각하고 난 후에는 단계적으로 해결해왔다고 고백.
한계를 명시함으로써 “이것은 해결할 수 없는 문제”가 아닌 “해결 절차가 필요한 문제”로 바뀌고, 실질적 행동에 나설 수 있게 된다.
‘9개의 인생(Nine Lives) 기법’
내가 살 수 있는 ‘9가지 버전의 삶’을 가정해보는 연습이다.
첫 번째 삶은 ‘지금 내가 살고 있는 삶’을 그대로 적고, 나머지 8개 삶은 “지금부터 새롭게 시작한다면 해보고 싶은, 설레는 인생”들을 구상한다.
모든 시나리오는 “오늘 이 순간부터” 출발해야 하고, 각각 다 흥미롭고 매력적인 삶이어야 한다.
‘9개의 인생’을 떠올리면, 무조건 1~2개 삶만이 진짜 정답이 아니라, 여러 가능성을 실험해볼 수 있다.
큰 폭의 진로 전환이 어렵다면, ‘해보고 싶은 삶’을 부분적으로 ‘현재 삶’에 조금씩 접목하는 식으로 시작 가능(예: 본업 외 팟캐스트나 블로그 등 사이드 프로젝트).
실제로 여러 ‘인생 버전’을 순차적으로 경험할 수도 있음(위버는 대기업 취업 → 창업 → 교수 → 작가·콘텐츠 등 다양한 삶을 차례로 경험).
“인생은 고통이다. 그렇다면 무엇을 위해 고통받을 것인가?”
쉽고 편한 길만 바라다 보면, 장기적으로 더 큰 불행에 빠질 수 있음.
열정과 에너지가 담긴 일을 하더라도 어느 정도 힘든 과정과 희생은 필연적이다.
결국 고통은 피하기 어렵다면, “가치 있는 고통”을 선택해야 한다.
지금 당장 편해지려 하면, “더 나은 미래”를 위한 변화의 노력(다이어트, 학습, 이직 등) 자체를 미루기 마련.
큰 목표를 이루려면 초기에 ‘더 나빠지는 지점(Worse First)’이 반드시 온다. 예: 몸을 만들려면 시작 한두 달은 근육통과 식단 조절의 스트레스. 그러나 여기서 포기하지 않아야 최종적 성취가 가능.
“내가 다니기 싫은 직장”도 매일 고통스럽긴 마찬가지이므로, 차라리 내가 의미 있는 고통이라 느낄 수 있는 인생 과제를 택하는 것이 더 낫다는 논리.
‘언제 그만둘(quit) 것인가?’ vs. ‘언제 계속할 것인가?’
무언가를 포기하기 전, 충분히 “여전히 그 목표에 열정이 남아 있는가?”, “작게나마 성장 징후가 있는가?”를 검토해야 함.
단, 장기전이 필수적인 영역이 많으니, 성과가 빨리 나오지 않는다고 지나치게 일찍 포기하지 않아야 한다.
위버는 본인이 첫 번째 펀드에서 돈을 잃었고, 이후 수많은 어려움을 겪었으나, “조금씩 나아지는 지표와 성공 사례(bright spots)”에 주목하며 14~18년을 버텨 결국 큰 성공을 거둠.
“성장 신호가 전혀 없고 본인조차도 비전이나 열정을 잃은 상태”라면 그만두는 것도 방법. 하지만 일시적 힘듦만을 이유로 포기하면 진정한 실패로 남음(레슬링 경험).
실행력을 높이는 핵심: 책임감(Accountability)과 코칭
“이런 인생을 살겠다”라는 목표를 세운 뒤, 이를 꾸준히 이행하려면 스스로를 점검할 체계가 필요함.
가장 효과적인 방법 중 하나가 **전문 코치(Executive Coach)**를 두거나, 친구·동료와 정기적으로 서로의 목표를 공유하고 체크하는 것.
위버 자신도 2009년부터 코치를 두어, 매주 혹은 격주별 체크리스트를 작성하지 않으면 코칭 세션에 들어갈 수 없도록 함 → 이 과정에서 명확한 일·주·월 단위 계획과 실천을 강제.
전문 코치를 고용하기 어려운 경우엔 가까운 지인과 ‘목표 브레인스토밍 모임’ 혹은 ‘서로의 진행상황 보고 모임’을 열어도 비슷한 효과를 볼 수 있음.
혼자 생각하거나 적기만 하는 것보다, 대화(말)로 목표를 공유할 때 뇌 활동이 더 활발해지고 실천 가능성이 높아짐.
내면의 게임: “I am enough(나는 이미 충분하다)”
위버는 15년 이상 애써 성취한 재정적 성공 후에도 전혀 내면이 변하지 않는다는 사실을 깨달음.
외부 성취만 좇으면 행복감이 ‘갑자기’ 생기지 않는다. 진짜 게임은 내면의 가치관과 자기 수용감을 확립하는 것.
그가 말한 일화: “큰 자금 회수(엑시트)로 경제적 자유를 어느 정도 얻었지만, 결국 내가 행복해지거나 불안감이 사라지지 않았다.”
“나는 이미 충분하다(I am enough)”라는 내적 선언을 하고, 내가 왜 행복하지 않은지, 무엇을 진짜로 추구하는지 진지하게 돌아봐야 함.
이 같은 통찰은 삶의 목표·의미를 외부가 아닌 내면에서 찾는 계기가 됨.
시간(Time)의 중요성
큰 성공·변화는 대부분 예상보다 훨씬 더 오래 걸린다.
소셜미디어 등은 ‘빠른 성공’만 조명하지만 실제로는 10년 이상 꾸준히 노력해야 열매가 생긴다는 점을 강조.
“Not now(지금은 아냐)”의 위험성
사람들은 하고 싶은 일이 있어도 “지금 당장은 어려우니 나중에”라고 미루지만, 대부분 그 ‘나중’은 오지 않음.
재정적·가족적 책임이 있으면 현실적으로 순차적 접근이 필요하지만, 아예 멈추기보다 작은 단위로라도 시작해 놓아야 한다.
위버의 수면(Sleep) 팁
건강과 인지 기능 개선을 위해 ‘잠’을 매우 중요하게 다룸.
시원한 온도를 유지하는 매트(Chilipad/OOLER 등), 수면안대, 귀마개, 소음기(화이트 노이즈 머신) 사용으로 숙면의 질을 높인다고 언급.
위버 추천 도서
《Untethered Soul》, 《Don’t Believe Everything You Think》: 내면세계 인식, 무의식적 생각 분리를 위한 책
《How to Win Friends and Influence People》(Dale Carnegie): 인간관계·커뮤니케이션 기본서
“인류가 필요한 것은 당신이 살아있는 모습”
대부분의 사람들은 인생의 거의 모든 영역을 ‘무의식적인 반복 루틴(Autopilot)’으로 살고 있으며, 이 과정을 의식하지 못한다.
이런 ‘무의식적 일상’을 탈피하여 “의도 있는 하루(의식적 삶)”로 전환해야 한다고 조언.
일반적인 예: 눈 뜨자마자 준비하고, 교통체증 뚫고 출근, 이메일 처리, 다시 퇴근, 저녁 먹고 잠드는 식으로 다음 날도 반복되는 생활. 이 과정에서 ‘내가 진짜로 가고 싶은 인생 경로’를 묻지 않음.
의도(인텐션) 설정: 하루 중 일정 시간을 확보해 “내가 정말 중요하게 여기는 가치, 앞으로 5~10년 뒤 모습, 이 시점에서 꼭 이루고 싶은 것” 등을 꾸준히 고민하고 행동 계획을 수립해야 함.
위버가 제안하는 방법 중 하나: ‘코치(Executive Coach)’ 고용 혹은 친구와의 정기 미팅 등, 스스로 점검하고 깊이 있는 질문을 주고받을 수 있는 장치를 마련하면 자동운전 모드에서 빠져나오기 수월함.
‘지니(Genie) 프레임워크’: “실패가 없다면 무엇을 할 것인가?”
자신이 ‘진짜로’ 하고 싶은 일의 근원을 찾기 위해, “만약 어떤 분야에 뛰어들어도 반드시 잘될 것이라는 요술램프(지니)의 보장이 있다면, 무엇을 하겠는가?”를 묻는다.
이 질문을 통해 ‘실패에 대한 두려움’ 없이 마음속 열망을 꺼내볼 수 있음.
학생 예시: 컨설팅 출신의 한 브라질 학생이 사실은 ‘브라질 교육격차 해소를 위한 비영리 단체’를 만들고 싶어 했으나, 실패·재정·경력 등의 문제로 망설였음.
지니 질문을 통해 본인이 진정 가고 싶었던 길(비영리 단체 설립)을 구체화했고, 강의 및 코칭 과정에서 두려움·제약 요인을 하나씩 극복하여 실제 실행으로 옮김.
위버 본인 역시 처음부터 명확한 미래 보장이 없었지만, “창업·투자 운영”이 자신의 지니 목표임을 깨닫고 도전했고 결국 성공적인 결과에 이르렀다고 밝힘.
‘나쁜 신념(Limiting Beliefs)’을 인식하고 해결하기
‘나는 돈이 부족해서 안 된다’, ‘경험이 없어서 안 될 것이다’, ‘가족을 부양해야 해서 못한다’ 등, 자신을 묶어두는 제한적 믿음들이 가장 큰 장애물이다.
먼저 이 믿음들을 글로 적어봄으로써,漠然(막연)했던 두려움을 구체적인 해결 과제로 전환할 수 있음.
브라질 학생 사례: “재원은 어떻게 확보하지?”, “사업계획이 전혀 없는데?” 등의 막연한 두려움 → 한 장의 종이에 모두 적은 뒤, 각각을 해결해야 할 ‘할 일(To-do)’로 전환함.
위버 본인의 예: “난 재능이 부족해, 난 사람들 앞에서 말 잘 못해” 같은 믿음을 오랜 기간 간직하고 있었으나, 이를 자각하고 난 후에는 단계적으로 해결해왔다고 고백.
한계를 명시함으로써 “이것은 해결할 수 없는 문제”가 아닌 “해결 절차가 필요한 문제”로 바뀌고, 실질적 행동에 나설 수 있게 된다.
‘9개의 인생(Nine Lives) 기법’
내가 살 수 있는 ‘9가지 버전의 삶’을 가정해보는 연습이다.
첫 번째 삶은 ‘지금 내가 살고 있는 삶’을 그대로 적고, 나머지 8개 삶은 “지금부터 새롭게 시작한다면 해보고 싶은, 설레는 인생”들을 구상한다.
모든 시나리오는 “오늘 이 순간부터” 출발해야 하고, 각각 다 흥미롭고 매력적인 삶이어야 한다.
‘9개의 인생’을 떠올리면, 무조건 1~2개 삶만이 진짜 정답이 아니라, 여러 가능성을 실험해볼 수 있다.
큰 폭의 진로 전환이 어렵다면, ‘해보고 싶은 삶’을 부분적으로 ‘현재 삶’에 조금씩 접목하는 식으로 시작 가능(예: 본업 외 팟캐스트나 블로그 등 사이드 프로젝트).
실제로 여러 ‘인생 버전’을 순차적으로 경험할 수도 있음(위버는 대기업 취업 → 창업 → 교수 → 작가·콘텐츠 등 다양한 삶을 차례로 경험).
“인생은 고통이다. 그렇다면 무엇을 위해 고통받을 것인가?”
쉽고 편한 길만 바라다 보면, 장기적으로 더 큰 불행에 빠질 수 있음.
열정과 에너지가 담긴 일을 하더라도 어느 정도 힘든 과정과 희생은 필연적이다.
결국 고통은 피하기 어렵다면, “가치 있는 고통”을 선택해야 한다.
지금 당장 편해지려 하면, “더 나은 미래”를 위한 변화의 노력(다이어트, 학습, 이직 등) 자체를 미루기 마련.
큰 목표를 이루려면 초기에 ‘더 나빠지는 지점(Worse First)’이 반드시 온다. 예: 몸을 만들려면 시작 한두 달은 근육통과 식단 조절의 스트레스. 그러나 여기서 포기하지 않아야 최종적 성취가 가능.
“내가 다니기 싫은 직장”도 매일 고통스럽긴 마찬가지이므로, 차라리 내가 의미 있는 고통이라 느낄 수 있는 인생 과제를 택하는 것이 더 낫다는 논리.
‘언제 그만둘(quit) 것인가?’ vs. ‘언제 계속할 것인가?’
무언가를 포기하기 전, 충분히 “여전히 그 목표에 열정이 남아 있는가?”, “작게나마 성장 징후가 있는가?”를 검토해야 함.
단, 장기전이 필수적인 영역이 많으니, 성과가 빨리 나오지 않는다고 지나치게 일찍 포기하지 않아야 한다.
위버는 본인이 첫 번째 펀드에서 돈을 잃었고, 이후 수많은 어려움을 겪었으나, “조금씩 나아지는 지표와 성공 사례(bright spots)”에 주목하며 14~18년을 버텨 결국 큰 성공을 거둠.
“성장 신호가 전혀 없고 본인조차도 비전이나 열정을 잃은 상태”라면 그만두는 것도 방법. 하지만 일시적 힘듦만을 이유로 포기하면 진정한 실패로 남음(레슬링 경험).
실행력을 높이는 핵심: 책임감(Accountability)과 코칭
“이런 인생을 살겠다”라는 목표를 세운 뒤, 이를 꾸준히 이행하려면 스스로를 점검할 체계가 필요함.
가장 효과적인 방법 중 하나가 **전문 코치(Executive Coach)**를 두거나, 친구·동료와 정기적으로 서로의 목표를 공유하고 체크하는 것.
위버 자신도 2009년부터 코치를 두어, 매주 혹은 격주별 체크리스트를 작성하지 않으면 코칭 세션에 들어갈 수 없도록 함 → 이 과정에서 명확한 일·주·월 단위 계획과 실천을 강제.
전문 코치를 고용하기 어려운 경우엔 가까운 지인과 ‘목표 브레인스토밍 모임’ 혹은 ‘서로의 진행상황 보고 모임’을 열어도 비슷한 효과를 볼 수 있음.
혼자 생각하거나 적기만 하는 것보다, 대화(말)로 목표를 공유할 때 뇌 활동이 더 활발해지고 실천 가능성이 높아짐.
내면의 게임: “I am enough(나는 이미 충분하다)”
위버는 15년 이상 애써 성취한 재정적 성공 후에도 전혀 내면이 변하지 않는다는 사실을 깨달음.
외부 성취만 좇으면 행복감이 ‘갑자기’ 생기지 않는다. 진짜 게임은 내면의 가치관과 자기 수용감을 확립하는 것.
그가 말한 일화: “큰 자금 회수(엑시트)로 경제적 자유를 어느 정도 얻었지만, 결국 내가 행복해지거나 불안감이 사라지지 않았다.”
“나는 이미 충분하다(I am enough)”라는 내적 선언을 하고, 내가 왜 행복하지 않은지, 무엇을 진짜로 추구하는지 진지하게 돌아봐야 함.
이 같은 통찰은 삶의 목표·의미를 외부가 아닌 내면에서 찾는 계기가 됨.
시간(Time)의 중요성
큰 성공·변화는 대부분 예상보다 훨씬 더 오래 걸린다.
소셜미디어 등은 ‘빠른 성공’만 조명하지만 실제로는 10년 이상 꾸준히 노력해야 열매가 생긴다는 점을 강조.
“Not now(지금은 아냐)”의 위험성
사람들은 하고 싶은 일이 있어도 “지금 당장은 어려우니 나중에”라고 미루지만, 대부분 그 ‘나중’은 오지 않음.
재정적·가족적 책임이 있으면 현실적으로 순차적 접근이 필요하지만, 아예 멈추기보다 작은 단위로라도 시작해 놓아야 한다.
위버의 수면(Sleep) 팁
건강과 인지 기능 개선을 위해 ‘잠’을 매우 중요하게 다룸.
시원한 온도를 유지하는 매트(Chilipad/OOLER 등), 수면안대, 귀마개, 소음기(화이트 노이즈 머신) 사용으로 숙면의 질을 높인다고 언급.
위버 추천 도서
《Untethered Soul》, 《Don’t Believe Everything You Think》: 내면세계 인식, 무의식적 생각 분리를 위한 책
《How to Win Friends and Influence People》(Dale Carnegie): 인간관계·커뮤니케이션 기본서
“인류가 필요한 것은 당신이 살아있는 모습”
👍3
하워드 서먼(Howard Thurman)의 명언 인용: "Don’t ask what the world needs. Ask what makes you come alive, and go do it.”
남들이 원하는 게 아니라, 스스로를 ‘살아있게’ 만드는 것을 추구하라는 메시지.
프라이빗 에쿼티(PE) 관점
Alpine Investors가 성공적인 이유: ‘비즈니스 모델/시장’도 중요하지만, 결국 ‘탁월한 경영진(매니지먼트 팀)’이 핵심이라는 철학.
회사 인수 후 직접 선임한 경영자를 통해 기업을 성장시키는 방식을 고수 → “사람”이 알파를 만든다고 봄.
단 한 번의 인생, 의식적으로 설계하라
“우리는 단 한 번의 인생을 살 뿐이므로, 정말 내가 원하는 것이 무엇인지 최대한 구체적으로 그려라.”
돈·안정·평판 등에 지나치게 매몰되지 말고, ‘내면에서 우러나는 열망’과 ‘의미 있는 도전’을 설계한 뒤, 작은 행동부터 시작하라.
코칭·메모·일정관리 등을 활용해 ‘의식적’으로 그 목표에 집중하면, 장기적으로 흔들림 없이 성장할 가능성이 높다.
위버가 학생들에게 제시하는 과제: 매주 혹은 매일 “내가 진정 원하는 목표”와 그를 위한 액션 아이템을 3가지씩 적고 실천하는 것 → 시간이 지날수록 압도적인 차이를 만든다고 설명.
본인이 직접 실행한 결과, 직업적 성공(알파인 인베스터스)과 교육자로서의 성취(스탠퍼드 강의 수상)는 물론, 개인적 성장(가족·멘탈 관리)까지 이뤄냈다고 강조.
남들이 원하는 게 아니라, 스스로를 ‘살아있게’ 만드는 것을 추구하라는 메시지.
프라이빗 에쿼티(PE) 관점
Alpine Investors가 성공적인 이유: ‘비즈니스 모델/시장’도 중요하지만, 결국 ‘탁월한 경영진(매니지먼트 팀)’이 핵심이라는 철학.
회사 인수 후 직접 선임한 경영자를 통해 기업을 성장시키는 방식을 고수 → “사람”이 알파를 만든다고 봄.
단 한 번의 인생, 의식적으로 설계하라
“우리는 단 한 번의 인생을 살 뿐이므로, 정말 내가 원하는 것이 무엇인지 최대한 구체적으로 그려라.”
돈·안정·평판 등에 지나치게 매몰되지 말고, ‘내면에서 우러나는 열망’과 ‘의미 있는 도전’을 설계한 뒤, 작은 행동부터 시작하라.
코칭·메모·일정관리 등을 활용해 ‘의식적’으로 그 목표에 집중하면, 장기적으로 흔들림 없이 성장할 가능성이 높다.
위버가 학생들에게 제시하는 과제: 매주 혹은 매일 “내가 진정 원하는 목표”와 그를 위한 액션 아이템을 3가지씩 적고 실천하는 것 → 시간이 지날수록 압도적인 차이를 만든다고 설명.
본인이 직접 실행한 결과, 직업적 성공(알파인 인베스터스)과 교육자로서의 성취(스탠퍼드 강의 수상)는 물론, 개인적 성장(가족·멘탈 관리)까지 이뤄냈다고 강조.
👍2
일론 머스크가 말한 제품 개발 5단계
1. 요구사항을 “덜 멍청하게” 만들기 (Make your requirements less dumb)
아무 비판 없이 받아들인 요구사항이 실제로는 불필요하거나 잘못된 경우가 많습니다.
누가 제시한 요구사항이든, “이게 꼭 필요한 것인가?” 하고 끊임없이 의문을 제기합니다.
특히 “똑똑한 사람”이 준 요구사항이라도 맹신하지 말고, 왜 필요한지 근본부터 다시 점검해야 합니다.
2. 부품 또는 공정 단계를 과감히 제거하기 (Try very hard to delete the part or process)
불필요한 부품이나 절차(프로세스)를 찾아내 없애야 합니다.
“나중에 필요할지도 몰라”라는 식으로 애매하게 남겨두면 복잡도만 높아집니다.
실제로 불필요함이 드러나 지운 뒤, 10% 정도는 나중에 다시 추가될 수 있을 만큼 “삭제에 대한 적극성”이 필요하다고 강조합니다.
3. 단순화·최적화하기 (Only then do you simplify or optimize)
먼저 “최적화”를 시도하는데, 머스크는 이것이 매우 위험한 습관이라 말합니다.
존재해서는 안 될 부품이나 공정부터 최적화하는 오류에 빠지지 않으려면, 앞서 (1)과 (2)를 철저히 거친 뒤에야 비로소 단순화·최적화를 진행해야 합니다.
4. 사이클 타임 가속하기 (Accelerate cycle time)
개발·생산 과정을 더 빠르게 반복(Iterate)하여, 결함이나 개선점을 신속히 찾아내는 단계입니다.
그러나 (1)·(2)·(3)을 충분히 하지 않은 채 속도부터 높이면, 잘못된 구조를 빠르게 양산하는 결과가 됩니다.
5. 자동화하기 (Automate)
마지막 단계가 자동화이며, 잘못된 설계·공정을 그대로 자동화하면 걷잡을 수 없는 비효율과 문제를 야기하게 됩니다.
• 머스크 스스로도 “이 순서를 거꾸로 했다가 큰 실패를 여러 번 경험했다”고 예를 들며, 우선은 불필요한 것들을 제거하고 최적화한 뒤에야 자동화를 추진해야 한다고 강조합니다.
테슬라 모델3 배터리팩 유리 섬유 매트 사건
일론 머스크는 실제로 배터리팩 생산 라인에 “유리 섬유 매트”가 필요한지 확인도 안 된 채 두고서, 처음에는 로봇 자동화(5단계)부터 하고 가속(4단계)·최적화(3단계)를 시도했습니다.
그러나 결국 “이 매트가 왜 필요한지(1단계)?”를 물어보니, 팀마다 이유가 달랐고 실제로는 아무 소용이 없다는 사실이 드러났습니다.
결국 매트를 제거(2단계)해서 복잡한 로봇 공정을 없앴고, 생산 병목을 해소했습니다.
(1) 요구사항을 철저히 재검토하고,
(2) 불필요한 부품·프로세스를 우선 제거한 뒤,
(3) 남은 요소를 단순화·최적화한다. 그리고 나서야
(4) 생산·개발 속도를 높이고,
(5) 최종적으로 자동화하라.
https://youtu.be/-iNgdvXXaR0
1. 요구사항을 “덜 멍청하게” 만들기 (Make your requirements less dumb)
아무 비판 없이 받아들인 요구사항이 실제로는 불필요하거나 잘못된 경우가 많습니다.
누가 제시한 요구사항이든, “이게 꼭 필요한 것인가?” 하고 끊임없이 의문을 제기합니다.
특히 “똑똑한 사람”이 준 요구사항이라도 맹신하지 말고, 왜 필요한지 근본부터 다시 점검해야 합니다.
2. 부품 또는 공정 단계를 과감히 제거하기 (Try very hard to delete the part or process)
불필요한 부품이나 절차(프로세스)를 찾아내 없애야 합니다.
“나중에 필요할지도 몰라”라는 식으로 애매하게 남겨두면 복잡도만 높아집니다.
실제로 불필요함이 드러나 지운 뒤, 10% 정도는 나중에 다시 추가될 수 있을 만큼 “삭제에 대한 적극성”이 필요하다고 강조합니다.
3. 단순화·최적화하기 (Only then do you simplify or optimize)
먼저 “최적화”를 시도하는데, 머스크는 이것이 매우 위험한 습관이라 말합니다.
존재해서는 안 될 부품이나 공정부터 최적화하는 오류에 빠지지 않으려면, 앞서 (1)과 (2)를 철저히 거친 뒤에야 비로소 단순화·최적화를 진행해야 합니다.
4. 사이클 타임 가속하기 (Accelerate cycle time)
개발·생산 과정을 더 빠르게 반복(Iterate)하여, 결함이나 개선점을 신속히 찾아내는 단계입니다.
그러나 (1)·(2)·(3)을 충분히 하지 않은 채 속도부터 높이면, 잘못된 구조를 빠르게 양산하는 결과가 됩니다.
5. 자동화하기 (Automate)
마지막 단계가 자동화이며, 잘못된 설계·공정을 그대로 자동화하면 걷잡을 수 없는 비효율과 문제를 야기하게 됩니다.
• 머스크 스스로도 “이 순서를 거꾸로 했다가 큰 실패를 여러 번 경험했다”고 예를 들며, 우선은 불필요한 것들을 제거하고 최적화한 뒤에야 자동화를 추진해야 한다고 강조합니다.
테슬라 모델3 배터리팩 유리 섬유 매트 사건
일론 머스크는 실제로 배터리팩 생산 라인에 “유리 섬유 매트”가 필요한지 확인도 안 된 채 두고서, 처음에는 로봇 자동화(5단계)부터 하고 가속(4단계)·최적화(3단계)를 시도했습니다.
그러나 결국 “이 매트가 왜 필요한지(1단계)?”를 물어보니, 팀마다 이유가 달랐고 실제로는 아무 소용이 없다는 사실이 드러났습니다.
결국 매트를 제거(2단계)해서 복잡한 로봇 공정을 없앴고, 생산 병목을 해소했습니다.
(1) 요구사항을 철저히 재검토하고,
(2) 불필요한 부품·프로세스를 우선 제거한 뒤,
(3) 남은 요소를 단순화·최적화한다. 그리고 나서야
(4) 생산·개발 속도를 높이고,
(5) 최종적으로 자동화하라.
https://youtu.be/-iNgdvXXaR0
YouTube
일론의 5단계 법칙
Translated by A
DISCLAIMER
- The copyright of the original video belongs to the original copyright holder.
- We check the copyright permission through the YouTube system, and if it is not confirmed within the system, we proceed with the translation work…
DISCLAIMER
- The copyright of the original video belongs to the original copyright holder.
- We check the copyright permission through the YouTube system, and if it is not confirmed within the system, we proceed with the translation work…
👍2
MBA 고용시장 위축 https://youtu.be/WQ35G6XI8Uw
하버드·스탠포드·MIT 등 주요 경영대 졸업생의 취업률·초봉이 급락.
대형 IT기업(FAANG) 및 컨설팅펌이 중간 관리직·MBA 인력 채용을 대폭 줄이는 추세.
- 마크 핀커스는 MBA의 가치가 "위험 회피"에 있었지만, 현재 경제 상황에서는 이러한 가치가 퇴색되었다고 주장합니다.
- 마크 핀커스는 "Y Combinator" 회사에 합류하는 것과 같이, 스타트업에서 실무 경험을 쌓는 것이 더 유익할 수 있다고 제안합니다.
- 차마스는 AI가 중간 관리자 역할을 대체할 것이라고 예측하며, MBA 학위의 가치가 하락할 것이라고 전망합니다.
- 프리버그는 대학 교육의 효용성에 의문을 제기하며, "실무 경험"과 "사회적 경험"의 중요성을 강조합니다.
- 마크 핀커스는 조니 아이브의 자녀 교육 사례를 언급하며, "도제식 교육" 모델의 가능성을 제시합니다.
- 제이슨은 "Deep Research"와 "Grok"과 같은 AI 도구의 발전상을 소개하며, MBA 교육의 필요성에 의문을 제기합니다.
- 프리버그는 AI를 "개인 교사"에 비유하며, AI가 고등 교육의 가치를 잠식할 것이라고 예측합니다.
하버드·스탠포드·MIT 등 주요 경영대 졸업생의 취업률·초봉이 급락.
대형 IT기업(FAANG) 및 컨설팅펌이 중간 관리직·MBA 인력 채용을 대폭 줄이는 추세.
- 마크 핀커스는 MBA의 가치가 "위험 회피"에 있었지만, 현재 경제 상황에서는 이러한 가치가 퇴색되었다고 주장합니다.
- 마크 핀커스는 "Y Combinator" 회사에 합류하는 것과 같이, 스타트업에서 실무 경험을 쌓는 것이 더 유익할 수 있다고 제안합니다.
- 차마스는 AI가 중간 관리자 역할을 대체할 것이라고 예측하며, MBA 학위의 가치가 하락할 것이라고 전망합니다.
- 프리버그는 대학 교육의 효용성에 의문을 제기하며, "실무 경험"과 "사회적 경험"의 중요성을 강조합니다.
- 마크 핀커스는 조니 아이브의 자녀 교육 사례를 언급하며, "도제식 교육" 모델의 가능성을 제시합니다.
- 제이슨은 "Deep Research"와 "Grok"과 같은 AI 도구의 발전상을 소개하며, MBA 교육의 필요성에 의문을 제기합니다.
- 프리버그는 AI를 "개인 교사"에 비유하며, AI가 고등 교육의 가치를 잠식할 것이라고 예측합니다.
YouTube
Red-pilled Billionaires, LA Fire Update, Newsom's Price Caps, TikTok Ban, Jobless MBAs
(0:00) The Besties welcome Mark Pincus!
(3:53) Mark's background
(6:02) How Mark got red-pilled for Trump, maintaining friendships despite political differences
(23:21) LA Wildfires update: Newsom's EOs, market impact of price controls
(51:32) Congestion…
(3:53) Mark's background
(6:02) How Mark got red-pilled for Trump, maintaining friendships despite political differences
(23:21) LA Wildfires update: Newsom's EOs, market impact of price controls
(51:32) Congestion…
❤1
"널리 배우고, 자세히 묻고, 신중히 생각하고, 명확히 분별하고, 독실히 행하라(博學之, 審問之, 愼思之, 明辨之, 篤行之)."
중용
중용(中庸)에서 말하는 이 구절은, 시대를 초월하여 우리에게 깊은 울림을 준다. 데이터를 폭넓게 모으고, 데이터에 대해 깊이 탐구하고, 신중하게 따져보고, 데이터의 한계는 명확히 인식하고, 마지막으로 현명하게 활용해야 한다는 것이다. 데이터는 도구일 뿐, 결국 사용하는 것은 사람의 몫이다. 데이터는 우리에게 길을 보여줄 수는 있지만, 그 길을 걷는 것은 결국 우리 자신의 선택이다.
중용
중용(中庸)에서 말하는 이 구절은, 시대를 초월하여 우리에게 깊은 울림을 준다. 데이터를 폭넓게 모으고, 데이터에 대해 깊이 탐구하고, 신중하게 따져보고, 데이터의 한계는 명확히 인식하고, 마지막으로 현명하게 활용해야 한다는 것이다. 데이터는 도구일 뿐, 결국 사용하는 것은 사람의 몫이다. 데이터는 우리에게 길을 보여줄 수는 있지만, 그 길을 걷는 것은 결국 우리 자신의 선택이다.
The biggest mistake first-time founders make? Overthinking. Here's what we did differently when building Decagon.
Our entire market research consisted of a simple idea: Just start talking to customers.
When you’re trying to figure out what to work on, most first-time founders will focus on:
→ What market is the best?
→ What trends are interesting?
→ What product “makes sense?"
But this kind of thinking can be a huge waste of time.
Instead, Ashwin and I decided not to overthink at all and started talking to prospects instead.
We knew we were excited about AI agents. GPT-4 had just come out and it unlocked a whole new capability that just wasn’t possible before.
And through our talks with prospects, we identified that customer experience was the golden market for AI agents. It’s where the need was clearest, and the value was undeniable.
We focused on solving that specific problem, and things snowballed pretty quickly from there as we landed big customers in no time.
At Decagon, this approach allowed us to build a product driven by customer needs and, for a startup, that’s where success lies.
Our entire market research consisted of a simple idea: Just start talking to customers.
When you’re trying to figure out what to work on, most first-time founders will focus on:
→ What market is the best?
→ What trends are interesting?
→ What product “makes sense?"
But this kind of thinking can be a huge waste of time.
Instead, Ashwin and I decided not to overthink at all and started talking to prospects instead.
We knew we were excited about AI agents. GPT-4 had just come out and it unlocked a whole new capability that just wasn’t possible before.
And through our talks with prospects, we identified that customer experience was the golden market for AI agents. It’s where the need was clearest, and the value was undeniable.
We focused on solving that specific problem, and things snowballed pretty quickly from there as we landed big customers in no time.
At Decagon, this approach allowed us to build a product driven by customer needs and, for a startup, that’s where success lies.
https://www.amazon.com/How-Take-Smart-Notes.../dp/1542866502
왜 ‘누구나 글을 쓴다’고 말하는가?
학생·교수·논픽션 작가만이 아니라, 지식노동을 하는 모든 사람은 끊임없이 무언가를 기록한다(아이디어 메모·발표준비·연구노트 등).
그러나 대부분의 글쓰기 가이드나 학술 글쓰기 안내서는 주로 *‘결과물’*인 논문·에세이·책 쓰기에만 초점을 두고, 일상적인 노트 작성 과정은 간과한다.
‘노트 작성’이 왜 중요한가?
글쓰기는 연구의 결과물이 아니라, 연구 과정 그 자체를 구성하는 매개이다.
일상적으로 어떤 식으로 노트를 작성·정리하느냐가, 막상 논문이나 에세이를 쓸 때 결정적으로 영향을 미친다.
‘공들인 노트'가 있으면 ‘빈 화면(Blank page)의 공포’를 겪지 않아도 된다.
대부분의 사람들은 왜 이 방식을 모르고 지나치는가?
즉각적인 실패나 문제가 드러나지 않으니, 노트를 잘못 관리해도 곧바로 불이익을 체감하지 못한다.
글쓰기 마감 직전이 돼서야 비효율이 눈에 띄지만, 그때는 이미 늦어버려서 ‘임시방편’(예: 마감 스트레스, 억지 계획)만 쓰게 된다.
결국 책의 목적
“어떻게 매일의 글쓰기와 노트 정리를 효율적으로 시스템화할 것인가”를 알려주고, 이를 통해 장기적으로 품질 높은 결과물을 빠르고 쉽게 쓰도록 하는 것이다.
2. 핵심 개념: ‘좋은 노트-관리 시스템’이 가장 중요하다
학업·연구 성공의 결정 요인
지능(IQ)보다도, 일상적 ‘작업습관’과 ‘자기조직화(self-control)’가 성공에 크게 기여한다.
자기조절력이 부족해도, 환경·시스템을 잘 설계하면 의지력 소비를 최소화하고 좋은 결과를 낼 수 있다.
‘슬립박스’(Slip-box)란 무엇인가
니클라스 루만이 고안·사용한 노트 시스템.
간단히 말해, 모든 아이디어·생각을 카드(혹은 디지털 노트) 하나당 하나씩 기록하되, 미리 정해진 분류 없이 고유 번호를 부여하고, 연결(링크)·참조(인덱스)를 통해 유기적으로 엮어 가는 방식이다.
루만은 이 방법으로 30년간 58권 이상의 책, 수백 편의 논문을 써 냄.
루만의 사례
독학으로 공부하던 루만은 행정직 공무원 생활을 하면서, 퇴근 후 철저하게 노트(슬립박스)에 아이디어와 독서 내용을 정리했다.
이 노트들이 서로 얽혀 큰 사상·학설을 만들어 냈고, 전업 연구자가 아님에도 1년 만에 학위와 자격을 모두 갖춰 교수직을 맡게 되었다.
훗날 “나는 절대로 억지로 일하지 않는다. 막힐 때는 다른 작업을 한다”고 말했으며, 이는 노트 시스템 덕분에 가능했다고 강조했다.
슬립박스 사용의 전제
아무리 좋은 노트 시스템이라도, 이를 주기적·습관적으로 운영해야 한다.
또한, 글쓰기 과정을 ‘단계별로 분리(읽기·생각하기·노트정리·초고쓰기·교정 등)’하고, 그 연결고리에 슬립박스를 배치해야 효과가 극대화된다.
3. 실천 방법: 무엇을 하고, 언제, 어떻게 노트에 기록할까
(책에서는 “Everything You Need to Do / Have / Know” 파트로 상세히 제시)
3.1 무엇을 해야 하나? (Everything You Need to Do)
메모의 종류
1. Fleeting note(흘러가는 메모): 즉흥적인 아이디어·생각을 일단 적어두는 용도(휴대용 노트, 티슈, 음성 메모 등). 곧바로 영구 보관할 필요는 없고, 나중에 정제한다.
2. Literature note(문헌 노트): 읽은 자료(책·논문 등)의 핵심 내용, 인용할 부분, 생각 등을 간단히 적되, 출처 정보를 함께 기록(특히 Zotero 등 참고문헌 관리 프로그램 활용).
3. Permanent note(영구 노트): 최종적으로 슬립박스에 들어가는 노트. 내 관점에서 “단일 아이디어/개념”을 독립된 카드로 작성. 맥락 없이 봐도 이해되도록 완전한 문장으로 쓰며, 필요하면 관련 문헌을 명시.
슬립박스에 넣는 단계
1. 하루에 한 번, 혹은 정기적으로 Fleeting note·Literature note를 점검.
2. 그중 의미 있는 아이디어를 “Permanent note” 형태로 재정리·추가.
3. 각 노트에는 고유 번호를 부여, 혹은 디지털 소프트웨어가 자동 부여.
4. 이미 있는 다른 노트와 연관되는 지점(근접 아이디어, 대조·비교 가능 아이디어 등)이 있으면 링크·참조를 해둠.
5. 인덱스(Index)나 태그를 간단히 달아서, 훗날 특정 주제나 키워드로 찾아보기 쉽게 만든다.
‘주제를 어떻게 정하나?’
보통 ‘주제 → 자료수집’ 순서가 아니라, 슬립박스에 쌓인 아이디어를 살펴보면서 관심 있게 발전해온 ‘아이디어 묶음(클러스터)’을 찾아내는 방식.
처음부터 “논문 주제”를 정해두고, 그에 맞춰 노트를 쌓는 것이 아니다. “재미있고 중요한 아이디어”가 자연스럽게 무리 지어 모이면, 그것이 곧 쓸 거리.
원고 작성(논문·책) 시
슬립박스에서 관련 노트들을 꺼내 ‘흐름(아웃라인)’을 잡고, 그 노트들을 이어서 초안을 만든다.
이미 노트가 하나의 완성문장·단락처럼 되어 있으므로, 초안 작성이 훨씬 수월.
초안 후 교정, 추가 자료 확인, 문장 다듬기를 거쳐 최종본 완성.
3.2 무엇이 필요한가? (Everything You Need to Have)
필수 4가지 도구
1. 필기구와 종이(혹은 디지털 에디터) : 떠오르는 생각을 언제든 적기.
2. 참고문헌 관리 툴(예: Zotero) : 읽은 자료와 인용정보를 정리·저장.
3. 슬립박스(디지털 또는 실제 카드 박스) : 영구 노트를 체계적으로 보관·연결.
4. 에디터 : 최종 원고 작성 프로그램(Word, LibreOffice 등).
3.3 알아둬야 할 점들 (Everything You Need to Know & A Few Things to Keep in Mind)
단순하지만 지키기 어려운 원칙
노트는 ‘한 노트 당 한 아이디어’를 철저히 지키고, 완성도 있게 쓴다.
슬립박스는 ‘아카이브’가 아니라 ‘생각을 전개하는 무대’이므로, 노트 간 연결(링크)을 많이 만들어 놔야 아이디어가 서로 결합되며 확장된다.
4. 글쓰기·연구 방식의 네 가지 기본 원리 (The Four Underlying Principles)
글쓰기가 곧 전부라고 생각하기
연구·학습·생각을 하는 모든 과정을 ‘글쓰기’ 행위와 떼어놓지 말아야 한다.
“배운 뒤 → 글쓰기”가 아니라, “글을 쓰면서(노트로 정리하면서) 배운다.”
‘단순화’가 핵심
절차·도구를 복잡하게 하면 지치거나 중단하기 쉽다.
외부에서 보기에는 단순(노트, 카드 박스, 기본 프로그램 등)해 보이지만, 이 단순성이 사고(思考)의 복잡도를 풍부하게 만들 수 있다(“쉽게 연결 가능”).
사실, 아무도 ‘빈 상태’에서 시작하지 않는다
처음부터 주제를 정해 놓고 완벽히 준비해서 글을 쓰는 것이 아니다.
이미 머릿속에 여러 생각이 있고, 조금씩 노트를 써 가며 이를 발전시키면 된다.
‘브레인스토밍’ 등은 뇌의 편향이나 최신 정보에 치우칠 수 있으므로, 쌓아 둔 노트를 통해 주제를 찾는 편이 훨씬 체계적.
‘작업 흐름(Workflow)’이 스스로 굴러가게 하기
일을 억지로 하기보다는, 노트 작성이 자연스럽게 흥미를 일으키도록.
작은 단위 작업(한두 개 노트 작성·수정·연결 등)은 성취감과 피드백이 빨라 습관 형성에 유리하다.
9장. 분리되면서도 맞물려 있는 작업들 (Separate and Interlocking Tasks)
9.1 모든 작업에 온전히 집중하기
주의력 분산의 문제
이메일·메시지 등으로 자주 끊기면 작업 효율이 크게 떨어진다.
TV, 소셜미디어 등 주변 환경이 점점 자극적이 되어 집중력을 유지하기가 쉽지 않다.
9.2 멀티태스킹은 좋은 아이디어가 아니다
멀티태스킹은 실제로 ‘빠른 전환’일 뿐
여러 일을 동시에 처리한다 느끼지만, 사실은 주의력을 계속 이리저리 옮기는 것이다.
전환 과정 자체가 뇌 에너지를 크게 소모해 생산성과 작업 질 모두 하락.
‘자신은 멀티태스킹에 능숙하다’고 믿는 사람도 실제 성과는 떨어지는 경우가 많다.
9.3 각 작업에 알맞은 ‘주의 모드’ 적용하기
왜 ‘누구나 글을 쓴다’고 말하는가?
학생·교수·논픽션 작가만이 아니라, 지식노동을 하는 모든 사람은 끊임없이 무언가를 기록한다(아이디어 메모·발표준비·연구노트 등).
그러나 대부분의 글쓰기 가이드나 학술 글쓰기 안내서는 주로 *‘결과물’*인 논문·에세이·책 쓰기에만 초점을 두고, 일상적인 노트 작성 과정은 간과한다.
‘노트 작성’이 왜 중요한가?
글쓰기는 연구의 결과물이 아니라, 연구 과정 그 자체를 구성하는 매개이다.
일상적으로 어떤 식으로 노트를 작성·정리하느냐가, 막상 논문이나 에세이를 쓸 때 결정적으로 영향을 미친다.
‘공들인 노트'가 있으면 ‘빈 화면(Blank page)의 공포’를 겪지 않아도 된다.
대부분의 사람들은 왜 이 방식을 모르고 지나치는가?
즉각적인 실패나 문제가 드러나지 않으니, 노트를 잘못 관리해도 곧바로 불이익을 체감하지 못한다.
글쓰기 마감 직전이 돼서야 비효율이 눈에 띄지만, 그때는 이미 늦어버려서 ‘임시방편’(예: 마감 스트레스, 억지 계획)만 쓰게 된다.
결국 책의 목적
“어떻게 매일의 글쓰기와 노트 정리를 효율적으로 시스템화할 것인가”를 알려주고, 이를 통해 장기적으로 품질 높은 결과물을 빠르고 쉽게 쓰도록 하는 것이다.
2. 핵심 개념: ‘좋은 노트-관리 시스템’이 가장 중요하다
학업·연구 성공의 결정 요인
지능(IQ)보다도, 일상적 ‘작업습관’과 ‘자기조직화(self-control)’가 성공에 크게 기여한다.
자기조절력이 부족해도, 환경·시스템을 잘 설계하면 의지력 소비를 최소화하고 좋은 결과를 낼 수 있다.
‘슬립박스’(Slip-box)란 무엇인가
니클라스 루만이 고안·사용한 노트 시스템.
간단히 말해, 모든 아이디어·생각을 카드(혹은 디지털 노트) 하나당 하나씩 기록하되, 미리 정해진 분류 없이 고유 번호를 부여하고, 연결(링크)·참조(인덱스)를 통해 유기적으로 엮어 가는 방식이다.
루만은 이 방법으로 30년간 58권 이상의 책, 수백 편의 논문을 써 냄.
루만의 사례
독학으로 공부하던 루만은 행정직 공무원 생활을 하면서, 퇴근 후 철저하게 노트(슬립박스)에 아이디어와 독서 내용을 정리했다.
이 노트들이 서로 얽혀 큰 사상·학설을 만들어 냈고, 전업 연구자가 아님에도 1년 만에 학위와 자격을 모두 갖춰 교수직을 맡게 되었다.
훗날 “나는 절대로 억지로 일하지 않는다. 막힐 때는 다른 작업을 한다”고 말했으며, 이는 노트 시스템 덕분에 가능했다고 강조했다.
슬립박스 사용의 전제
아무리 좋은 노트 시스템이라도, 이를 주기적·습관적으로 운영해야 한다.
또한, 글쓰기 과정을 ‘단계별로 분리(읽기·생각하기·노트정리·초고쓰기·교정 등)’하고, 그 연결고리에 슬립박스를 배치해야 효과가 극대화된다.
3. 실천 방법: 무엇을 하고, 언제, 어떻게 노트에 기록할까
(책에서는 “Everything You Need to Do / Have / Know” 파트로 상세히 제시)
3.1 무엇을 해야 하나? (Everything You Need to Do)
메모의 종류
1. Fleeting note(흘러가는 메모): 즉흥적인 아이디어·생각을 일단 적어두는 용도(휴대용 노트, 티슈, 음성 메모 등). 곧바로 영구 보관할 필요는 없고, 나중에 정제한다.
2. Literature note(문헌 노트): 읽은 자료(책·논문 등)의 핵심 내용, 인용할 부분, 생각 등을 간단히 적되, 출처 정보를 함께 기록(특히 Zotero 등 참고문헌 관리 프로그램 활용).
3. Permanent note(영구 노트): 최종적으로 슬립박스에 들어가는 노트. 내 관점에서 “단일 아이디어/개념”을 독립된 카드로 작성. 맥락 없이 봐도 이해되도록 완전한 문장으로 쓰며, 필요하면 관련 문헌을 명시.
슬립박스에 넣는 단계
1. 하루에 한 번, 혹은 정기적으로 Fleeting note·Literature note를 점검.
2. 그중 의미 있는 아이디어를 “Permanent note” 형태로 재정리·추가.
3. 각 노트에는 고유 번호를 부여, 혹은 디지털 소프트웨어가 자동 부여.
4. 이미 있는 다른 노트와 연관되는 지점(근접 아이디어, 대조·비교 가능 아이디어 등)이 있으면 링크·참조를 해둠.
5. 인덱스(Index)나 태그를 간단히 달아서, 훗날 특정 주제나 키워드로 찾아보기 쉽게 만든다.
‘주제를 어떻게 정하나?’
보통 ‘주제 → 자료수집’ 순서가 아니라, 슬립박스에 쌓인 아이디어를 살펴보면서 관심 있게 발전해온 ‘아이디어 묶음(클러스터)’을 찾아내는 방식.
처음부터 “논문 주제”를 정해두고, 그에 맞춰 노트를 쌓는 것이 아니다. “재미있고 중요한 아이디어”가 자연스럽게 무리 지어 모이면, 그것이 곧 쓸 거리.
원고 작성(논문·책) 시
슬립박스에서 관련 노트들을 꺼내 ‘흐름(아웃라인)’을 잡고, 그 노트들을 이어서 초안을 만든다.
이미 노트가 하나의 완성문장·단락처럼 되어 있으므로, 초안 작성이 훨씬 수월.
초안 후 교정, 추가 자료 확인, 문장 다듬기를 거쳐 최종본 완성.
3.2 무엇이 필요한가? (Everything You Need to Have)
필수 4가지 도구
1. 필기구와 종이(혹은 디지털 에디터) : 떠오르는 생각을 언제든 적기.
2. 참고문헌 관리 툴(예: Zotero) : 읽은 자료와 인용정보를 정리·저장.
3. 슬립박스(디지털 또는 실제 카드 박스) : 영구 노트를 체계적으로 보관·연결.
4. 에디터 : 최종 원고 작성 프로그램(Word, LibreOffice 등).
3.3 알아둬야 할 점들 (Everything You Need to Know & A Few Things to Keep in Mind)
단순하지만 지키기 어려운 원칙
노트는 ‘한 노트 당 한 아이디어’를 철저히 지키고, 완성도 있게 쓴다.
슬립박스는 ‘아카이브’가 아니라 ‘생각을 전개하는 무대’이므로, 노트 간 연결(링크)을 많이 만들어 놔야 아이디어가 서로 결합되며 확장된다.
4. 글쓰기·연구 방식의 네 가지 기본 원리 (The Four Underlying Principles)
글쓰기가 곧 전부라고 생각하기
연구·학습·생각을 하는 모든 과정을 ‘글쓰기’ 행위와 떼어놓지 말아야 한다.
“배운 뒤 → 글쓰기”가 아니라, “글을 쓰면서(노트로 정리하면서) 배운다.”
‘단순화’가 핵심
절차·도구를 복잡하게 하면 지치거나 중단하기 쉽다.
외부에서 보기에는 단순(노트, 카드 박스, 기본 프로그램 등)해 보이지만, 이 단순성이 사고(思考)의 복잡도를 풍부하게 만들 수 있다(“쉽게 연결 가능”).
사실, 아무도 ‘빈 상태’에서 시작하지 않는다
처음부터 주제를 정해 놓고 완벽히 준비해서 글을 쓰는 것이 아니다.
이미 머릿속에 여러 생각이 있고, 조금씩 노트를 써 가며 이를 발전시키면 된다.
‘브레인스토밍’ 등은 뇌의 편향이나 최신 정보에 치우칠 수 있으므로, 쌓아 둔 노트를 통해 주제를 찾는 편이 훨씬 체계적.
‘작업 흐름(Workflow)’이 스스로 굴러가게 하기
일을 억지로 하기보다는, 노트 작성이 자연스럽게 흥미를 일으키도록.
작은 단위 작업(한두 개 노트 작성·수정·연결 등)은 성취감과 피드백이 빨라 습관 형성에 유리하다.
9장. 분리되면서도 맞물려 있는 작업들 (Separate and Interlocking Tasks)
9.1 모든 작업에 온전히 집중하기
주의력 분산의 문제
이메일·메시지 등으로 자주 끊기면 작업 효율이 크게 떨어진다.
TV, 소셜미디어 등 주변 환경이 점점 자극적이 되어 집중력을 유지하기가 쉽지 않다.
9.2 멀티태스킹은 좋은 아이디어가 아니다
멀티태스킹은 실제로 ‘빠른 전환’일 뿐
여러 일을 동시에 처리한다 느끼지만, 사실은 주의력을 계속 이리저리 옮기는 것이다.
전환 과정 자체가 뇌 에너지를 크게 소모해 생산성과 작업 질 모두 하락.
‘자신은 멀티태스킹에 능숙하다’고 믿는 사람도 실제 성과는 떨어지는 경우가 많다.
9.3 각 작업에 알맞은 ‘주의 모드’ 적용하기
👍3❤1
글쓰기는 여러 종류의 주의력을 요한다
예: 초고 쓰기, 교정·검토, 구조 잡기, 아이디어 확장 등은 서로 다른 집중 방식이 필요.
교정 모드는 비판적이고 거리두기가 필요하지만, 아이디어 발상 모드는 훨씬 자유롭고 확산적.
이러한 상반된 주의 상태들을 섞지 말고, 단계별로 분리해 진행하는 것이 효율적.
9.4 플래너(계획자)가 아닌 ‘전문가’ 되기
규칙·원칙만 따르는 ‘계획 중심’ 접근은 복잡한 실제 상황에서 잘 맞지 않음.
전문가는 자신의 ‘습득된 감각(직관)’으로 유연하게 판단을 내린다.
글쓰기도 마찬가지로, 일정표와 단계별 계획에 갇히기보다 작업 흐름에 따라 필요한 일을 즉시 실행할 수 있어야 한다.
9.5 미완료 작업을 닫아두기(Get Closure)
짧은 작업 단위로 끊어두고, 끝냈다는 표시(또는 메모)를 해두면, 뇌가 그 일을 붙잡고 있지 않아도 된다(Zeigarnik 효과).
즉, 해야 할 일을 믿을 만한 외부 시스템(예: 리스트, 슬립박스)에 적어두면, 뇌 용량을 더 중요한 작업에 집중시킬 수 있다.
9.6 결정해야 할 일(Decision)을 줄이기
**의지력도 ‘한정 자원’**이라서, 사소한 결정이 많아지면 쉽게 고갈된다(에고 고갈, Ego Depletion).
작업환경(워크플로)을 표준화해 두면, 불필요한 결정을 줄여서 더 중요한 사고에 에너지를 쓸 수 있다.
“무언가를 해야지”라고 계획만 해두는 것보다, **구체적으로 “바로 노트 하나를 작성해보자”**처럼 즉시 끝낼 수 있는 작업으로 쪼개는 것이 중요.
10장. 이해를 위한 읽기 (Read for Understanding)
10.1 펜을 들고 읽기
읽으면서 중요한 부분·생각을 즉시 요약 메모(‘문헌 노트’)로 남긴다.
자신의 언어로 ‘번역’해 쓰는 과정에서 이해가 깊어지고, 나중에 글에 재활용 가능.
루만도 항상 책을 읽으며 짧은 메모를 작성한 뒤, 이후 슬립박스 노트로 발전시켰다.
10.2 열린 마음 유지하기
확증 편향(Confirmation Bias) 경계: 우리가 원래 믿는 바나 방금 본 정보만 주로 떠올린다.
미리 가설·주제를 정해놓으면, 그에 맞는 정보만 모으는 함정에 빠지기 쉽다.
슬립박스는 ‘모든 관련 정보를 순수하게 축적·연결’하도록 하여, 편향을 어느 정도 극복하게 돕는다.
10.3 요점을 파악하기(Get the Gist)
복잡한 내용을 스스로 간결하고 정확하게 재표현해야 이해도·기억도 높아진다.
반복 읽기나 밑줄 긋기만으로는 (낯익음→이해 착각) 효과가 적고, 메모로 요점을 잡는 것이 핵심.
10.4 ‘읽기를’ 다시 배우기
낯설게 느껴질지라도, ‘내 언어로 정리하는 글쓰기’가 곧 이해 수준을 검증하는 가장 좋은 방법.
머릿속에서만 알 것 같다가, 막상 문장으로 쓰려 하면 부족함이나 모순을 발견하게 된다.
10.5 독서를 통한 학습
읽고-요약하고-슬립박스 노트로 전환하면서 반복해서 사고를 재검증하기에 학습 효과가 극대화.
단순 주입식·암기식 공부는 장기적으로 무의미하며, 실제로는 이해와 연결(Elaboration)이 더 중요.
루만은 같은 책을 여러 번 읽지 않았지만, 노트화·연결 과정을 통해 충분히 자기 지식으로 만들었다.
11장. 스마트 노트 작성 (Take Smart Notes)
11.1 노트를 한 장씩 쌓아 커리어를 만든다
“하루 한 장 쓰기도 버겁다?” 하지만 매일 조금씩 노트를 작성·정리하면, 1년 뒤 엄청난 ‘자료·아이디어 저장고’를 갖게 된다.
루만은 3~6장씩 매일 적어 수십 권 저술을 생산했다.
11.2 뇌 밖에서 사고하기(Think Outside the Brain)
글쓰기·노트화는 단순히 생각을 ‘기록’하는 행위가 아니라, “종이(텍스트) 위에서 생각을 전개하고 검증하는 과정.”
파인먼도 “노트는 내 생각의 기록이 아니라, 내가 실제로 생각하는(작업하는) 무대”라고 말했다.
외부화된 메모는 뇌의 한계를 보완하고, 새로운 연상과 결합을 가능하게 한다.
12장. 아이디어 발전 (Develop Ideas)
12.1 주제(Topic) 발전
슬립박스에서 노트들 간 연결고리가 형성되면 자연스럽게 주제가 드러나거나 발전한다.
인덱스(또는 태그)를 통해 찾아볼 때, 관련 노트를 함께 묶고 정리해둔 ‘개요 노트(overview note)’가 있으면 좋다.
중요한 것은: 처음부터 큰 주제를 정해두는 것이 아니라, 노트 연결과 발전으로부터 주제가 ‘발견’되는 것.
12.2 스마트하게 연결하기(Make Smart Connections)
디지털 슬립박스라면 링크 기능을 통해 노트 간 직접 연결.
‘특정 주제 개요 노트’(여러 노트 링크를 모음)나 ‘단순 노트→노트 링크’ 등 다양한 형태로 상호 참조.
연결 과정 자체가 사고를 자극하며, 예상 못 한 아이디어가 나오기도 한다.
12.3 비교·수정·차이를 구분(Compare, Correct, Differentiate)
새 노트를 기존 노트와 비교하다 보면 중복, 모순, 미묘한 차이를 발견해 사고가 정교해진다.
서로 반대되는 아이디어(모순·패러독스)를 찾는 과정에서 가장 큰 통찰이 생길 수 있다.
12.4 사고를 위한 도구상자(Assemble a Toolbox)
다양한 ‘멘탈 모델(이론·개념 프레임)’을 축적하면, 새 정보를 해석하고 연결하기 수월해진다(“latticework of mental models”).
슬립박스는 사실과 아이디어를 한데 모아서, 실제 사고 과정에서 ‘넓은 시각’을 제공하는 장치가 된다.
12.5 슬립박스를 창의성 엔진으로 사용하기
새로운 아이디어는 갑자기 번쩍 떠오르기보다는, 이미 충분히 깊이 고민한 것들이 다른 맥락과 만나면서 발화하는 경우가 많다.
루만의 시스템은 습관적으로 노트를 접목하고 재배치하면서, 생각의 예측불가한 만남을 늘려준다.
12.6 상자 안에서 생각하기(Think Inside the Box)
“틀 밖에서 생각하라”는 말과 달리, 적절한 제한·구조가 있을 때 창의성은 더 잘 발휘된다.
슬립박스가 바로 그런 *규칙과 형식(한 노트 당 한 아이디어, 동일 형식, 시스템화)*을 제공해, 내용을 자유롭게 재조합하고 상상해볼 수 있게 함.
12.7 제약이 창의성을 촉진한다(Facilitate Creativity through Restrictions)
형식이 단순할수록(예: 한 노트 = 한 아이디어, A6 사이즈) 오히려 사고의 폭이 넓어진다.
더 많은 기능·복잡한 분류 시스템은 주의력을 뺏고, *중요한 본질(아이디어 연결·재발견)*에 쓸 에너지를 소모하게 만든다.
13장. 통찰을 공유하기 (Share Your Insight)
13.1 브레인스토밍이 아닌 ‘슬립박스 스토밍’(From Brainstorming to Slip-box-Storming)
일반적인 브레인스토밍은 방금 떠오른 생각에 의존하므로 편향이 심하고, 실제로는 그렇게 창의적이지 못한 경우가 많다.
슬립박스를 쓰면 이미 쌓인 노트들을 살펴보며, 자연스럽게 인사이트가 연결·진화된 상태의 주제를 선택할 수 있어 훨씬 생산적.
13.2 위에서 아래로(Top Down)가 아닌 아래에서 위로(Bottom Up)
**처음부터 ‘이 주제로 하겠다’**고 결정하면, 그 틀에 맞춰 정보만 찾는 위험이 크다(확증 편향·차선 변경 어려움).
슬립박스에서 이미 형성된 노트 묶음을 보면, 내가 무의식중에 꾸준히 흥미·재료를 쌓아온 부분이 무엇인지 확인 가능.
이는 결과적으로 탄탄한 근거와 호기심을 토대로 작업을 하게 하며, 아이디어 수정에도 유연하다.
13.3 흥미를 따라가면서 일하기(Getting Things Done by Following Your Interests)
쓰고 싶은 주제, 흥미로운 방향으로 자유롭게 진행해야 동기가 계속 유지된다.
슬립박스는 관심 변화를 즉시 반영할 수 있어, 한 가설에 얽매이지 않고 더 가치 있는 방향으로 전환 가능.
13.4 마무리와 점검(Finishing and Review)
노트가 어느 정도 쌓이고 구조가 잡히면, 원고의 초안을 신속히 구성할 수 있다.
여러 프로젝트를 동시에 진행하는 것이 좋다. 어느 한 작업이 막히면, 다른 프로젝트 노트로 전환해 계속 아이디어를 굴릴 수 있기 때문.
예: 초고 쓰기, 교정·검토, 구조 잡기, 아이디어 확장 등은 서로 다른 집중 방식이 필요.
교정 모드는 비판적이고 거리두기가 필요하지만, 아이디어 발상 모드는 훨씬 자유롭고 확산적.
이러한 상반된 주의 상태들을 섞지 말고, 단계별로 분리해 진행하는 것이 효율적.
9.4 플래너(계획자)가 아닌 ‘전문가’ 되기
규칙·원칙만 따르는 ‘계획 중심’ 접근은 복잡한 실제 상황에서 잘 맞지 않음.
전문가는 자신의 ‘습득된 감각(직관)’으로 유연하게 판단을 내린다.
글쓰기도 마찬가지로, 일정표와 단계별 계획에 갇히기보다 작업 흐름에 따라 필요한 일을 즉시 실행할 수 있어야 한다.
9.5 미완료 작업을 닫아두기(Get Closure)
짧은 작업 단위로 끊어두고, 끝냈다는 표시(또는 메모)를 해두면, 뇌가 그 일을 붙잡고 있지 않아도 된다(Zeigarnik 효과).
즉, 해야 할 일을 믿을 만한 외부 시스템(예: 리스트, 슬립박스)에 적어두면, 뇌 용량을 더 중요한 작업에 집중시킬 수 있다.
9.6 결정해야 할 일(Decision)을 줄이기
**의지력도 ‘한정 자원’**이라서, 사소한 결정이 많아지면 쉽게 고갈된다(에고 고갈, Ego Depletion).
작업환경(워크플로)을 표준화해 두면, 불필요한 결정을 줄여서 더 중요한 사고에 에너지를 쓸 수 있다.
“무언가를 해야지”라고 계획만 해두는 것보다, **구체적으로 “바로 노트 하나를 작성해보자”**처럼 즉시 끝낼 수 있는 작업으로 쪼개는 것이 중요.
10장. 이해를 위한 읽기 (Read for Understanding)
10.1 펜을 들고 읽기
읽으면서 중요한 부분·생각을 즉시 요약 메모(‘문헌 노트’)로 남긴다.
자신의 언어로 ‘번역’해 쓰는 과정에서 이해가 깊어지고, 나중에 글에 재활용 가능.
루만도 항상 책을 읽으며 짧은 메모를 작성한 뒤, 이후 슬립박스 노트로 발전시켰다.
10.2 열린 마음 유지하기
확증 편향(Confirmation Bias) 경계: 우리가 원래 믿는 바나 방금 본 정보만 주로 떠올린다.
미리 가설·주제를 정해놓으면, 그에 맞는 정보만 모으는 함정에 빠지기 쉽다.
슬립박스는 ‘모든 관련 정보를 순수하게 축적·연결’하도록 하여, 편향을 어느 정도 극복하게 돕는다.
10.3 요점을 파악하기(Get the Gist)
복잡한 내용을 스스로 간결하고 정확하게 재표현해야 이해도·기억도 높아진다.
반복 읽기나 밑줄 긋기만으로는 (낯익음→이해 착각) 효과가 적고, 메모로 요점을 잡는 것이 핵심.
10.4 ‘읽기를’ 다시 배우기
낯설게 느껴질지라도, ‘내 언어로 정리하는 글쓰기’가 곧 이해 수준을 검증하는 가장 좋은 방법.
머릿속에서만 알 것 같다가, 막상 문장으로 쓰려 하면 부족함이나 모순을 발견하게 된다.
10.5 독서를 통한 학습
읽고-요약하고-슬립박스 노트로 전환하면서 반복해서 사고를 재검증하기에 학습 효과가 극대화.
단순 주입식·암기식 공부는 장기적으로 무의미하며, 실제로는 이해와 연결(Elaboration)이 더 중요.
루만은 같은 책을 여러 번 읽지 않았지만, 노트화·연결 과정을 통해 충분히 자기 지식으로 만들었다.
11장. 스마트 노트 작성 (Take Smart Notes)
11.1 노트를 한 장씩 쌓아 커리어를 만든다
“하루 한 장 쓰기도 버겁다?” 하지만 매일 조금씩 노트를 작성·정리하면, 1년 뒤 엄청난 ‘자료·아이디어 저장고’를 갖게 된다.
루만은 3~6장씩 매일 적어 수십 권 저술을 생산했다.
11.2 뇌 밖에서 사고하기(Think Outside the Brain)
글쓰기·노트화는 단순히 생각을 ‘기록’하는 행위가 아니라, “종이(텍스트) 위에서 생각을 전개하고 검증하는 과정.”
파인먼도 “노트는 내 생각의 기록이 아니라, 내가 실제로 생각하는(작업하는) 무대”라고 말했다.
외부화된 메모는 뇌의 한계를 보완하고, 새로운 연상과 결합을 가능하게 한다.
12장. 아이디어 발전 (Develop Ideas)
12.1 주제(Topic) 발전
슬립박스에서 노트들 간 연결고리가 형성되면 자연스럽게 주제가 드러나거나 발전한다.
인덱스(또는 태그)를 통해 찾아볼 때, 관련 노트를 함께 묶고 정리해둔 ‘개요 노트(overview note)’가 있으면 좋다.
중요한 것은: 처음부터 큰 주제를 정해두는 것이 아니라, 노트 연결과 발전으로부터 주제가 ‘발견’되는 것.
12.2 스마트하게 연결하기(Make Smart Connections)
디지털 슬립박스라면 링크 기능을 통해 노트 간 직접 연결.
‘특정 주제 개요 노트’(여러 노트 링크를 모음)나 ‘단순 노트→노트 링크’ 등 다양한 형태로 상호 참조.
연결 과정 자체가 사고를 자극하며, 예상 못 한 아이디어가 나오기도 한다.
12.3 비교·수정·차이를 구분(Compare, Correct, Differentiate)
새 노트를 기존 노트와 비교하다 보면 중복, 모순, 미묘한 차이를 발견해 사고가 정교해진다.
서로 반대되는 아이디어(모순·패러독스)를 찾는 과정에서 가장 큰 통찰이 생길 수 있다.
12.4 사고를 위한 도구상자(Assemble a Toolbox)
다양한 ‘멘탈 모델(이론·개념 프레임)’을 축적하면, 새 정보를 해석하고 연결하기 수월해진다(“latticework of mental models”).
슬립박스는 사실과 아이디어를 한데 모아서, 실제 사고 과정에서 ‘넓은 시각’을 제공하는 장치가 된다.
12.5 슬립박스를 창의성 엔진으로 사용하기
새로운 아이디어는 갑자기 번쩍 떠오르기보다는, 이미 충분히 깊이 고민한 것들이 다른 맥락과 만나면서 발화하는 경우가 많다.
루만의 시스템은 습관적으로 노트를 접목하고 재배치하면서, 생각의 예측불가한 만남을 늘려준다.
12.6 상자 안에서 생각하기(Think Inside the Box)
“틀 밖에서 생각하라”는 말과 달리, 적절한 제한·구조가 있을 때 창의성은 더 잘 발휘된다.
슬립박스가 바로 그런 *규칙과 형식(한 노트 당 한 아이디어, 동일 형식, 시스템화)*을 제공해, 내용을 자유롭게 재조합하고 상상해볼 수 있게 함.
12.7 제약이 창의성을 촉진한다(Facilitate Creativity through Restrictions)
형식이 단순할수록(예: 한 노트 = 한 아이디어, A6 사이즈) 오히려 사고의 폭이 넓어진다.
더 많은 기능·복잡한 분류 시스템은 주의력을 뺏고, *중요한 본질(아이디어 연결·재발견)*에 쓸 에너지를 소모하게 만든다.
13장. 통찰을 공유하기 (Share Your Insight)
13.1 브레인스토밍이 아닌 ‘슬립박스 스토밍’(From Brainstorming to Slip-box-Storming)
일반적인 브레인스토밍은 방금 떠오른 생각에 의존하므로 편향이 심하고, 실제로는 그렇게 창의적이지 못한 경우가 많다.
슬립박스를 쓰면 이미 쌓인 노트들을 살펴보며, 자연스럽게 인사이트가 연결·진화된 상태의 주제를 선택할 수 있어 훨씬 생산적.
13.2 위에서 아래로(Top Down)가 아닌 아래에서 위로(Bottom Up)
**처음부터 ‘이 주제로 하겠다’**고 결정하면, 그 틀에 맞춰 정보만 찾는 위험이 크다(확증 편향·차선 변경 어려움).
슬립박스에서 이미 형성된 노트 묶음을 보면, 내가 무의식중에 꾸준히 흥미·재료를 쌓아온 부분이 무엇인지 확인 가능.
이는 결과적으로 탄탄한 근거와 호기심을 토대로 작업을 하게 하며, 아이디어 수정에도 유연하다.
13.3 흥미를 따라가면서 일하기(Getting Things Done by Following Your Interests)
쓰고 싶은 주제, 흥미로운 방향으로 자유롭게 진행해야 동기가 계속 유지된다.
슬립박스는 관심 변화를 즉시 반영할 수 있어, 한 가설에 얽매이지 않고 더 가치 있는 방향으로 전환 가능.
13.4 마무리와 점검(Finishing and Review)
노트가 어느 정도 쌓이고 구조가 잡히면, 원고의 초안을 신속히 구성할 수 있다.
여러 프로젝트를 동시에 진행하는 것이 좋다. 어느 한 작업이 막히면, 다른 프로젝트 노트로 전환해 계속 아이디어를 굴릴 수 있기 때문.
👍2🙏1
13.5 계획 대신 전문성으로(Become an Expert by Giving up Planning)
장기 계획은 대개 지나치게 낙관적(“계획 오류”)이어서 실제로 작동 안 될 때가 많다.
작은 단위 작업(노트 하나 작성 등)을 매일 실행하며 즉시 피드백을 얻으면, 실질적 학습과 숙련이 이뤄진다.
13.6 실제 글쓰기(The Actual Writing)
초안은 초안일 뿐이라는 점을 명심한다. 처음부터 완벽한 문장은 불가능하므로, 우선 쓰고(초고) 나중에 교정·수정.
애착이 가는 부분을 과감히 잘라내야 할 때, 따로 ‘rest’ 파일에 옮겨 놓는 식으로 스스로를 설득하면 수월해진다.
14장. 습관으로 만들기 (Make It a Habit)
인간은 장기적으로 “기존 습관”을 반복할 가능성이 매우 높다.
새 습관(예: 읽을 때마다 펜을 들고 간단히 메모, 그리고 바로 슬립박스에 옮기는 과정)을 의식적으로 도입해야 한다.
한번 자리를 잡으면, 오히려 아무 생각 없이 하게 되므로 꾸준한 성과를 낳는다.
장기 계획은 대개 지나치게 낙관적(“계획 오류”)이어서 실제로 작동 안 될 때가 많다.
작은 단위 작업(노트 하나 작성 등)을 매일 실행하며 즉시 피드백을 얻으면, 실질적 학습과 숙련이 이뤄진다.
13.6 실제 글쓰기(The Actual Writing)
초안은 초안일 뿐이라는 점을 명심한다. 처음부터 완벽한 문장은 불가능하므로, 우선 쓰고(초고) 나중에 교정·수정.
애착이 가는 부분을 과감히 잘라내야 할 때, 따로 ‘rest’ 파일에 옮겨 놓는 식으로 스스로를 설득하면 수월해진다.
14장. 습관으로 만들기 (Make It a Habit)
인간은 장기적으로 “기존 습관”을 반복할 가능성이 매우 높다.
새 습관(예: 읽을 때마다 펜을 들고 간단히 메모, 그리고 바로 슬립박스에 옮기는 과정)을 의식적으로 도입해야 한다.
한번 자리를 잡으면, 오히려 아무 생각 없이 하게 되므로 꾸준한 성과를 낳는다.
👍1
장기 기억(Long-term Memory)의 중요성’과 ‘Anki(간격 반복 플래시카드)’를 활용
1. 장기 기억(Long-term Memory)이 왜 중요한가?
1.1 기억의 중요성
흔히 공부나 연구에서 “기억”은 자연스레 따라오는 부산물쯤으로 여기지만, 실제로는 매우 적극적인 관리가 필요하다.
기억은 사고와 학습의 토대다. 단순 암기처럼 보여도, 높은 수준의 문제 해결·창의성 뒤에는 축적된 ‘패턴 지식’이 있다(체스 달인, 과학자들의 사례 등).
1.2 Memex·웹의 뿌리
Vannevar Bush의 “memex” 구상(1945)은 **‘개인의 기억 보조 장치’**라는 아이디어였고, 훗날 앵겔바트의 인터페이스, 테드 넬슨의 하이퍼텍스트, 팀 버너스리의 웹까지 연결되었다.
즉, **“인간 인지를 증강(Augmenting Human Intellect)”**한다는 전통이 존재해 왔으며, 이 맥락에서 Anki 같은 간격 반복 도구도 ‘개인 메모리 증강 시스템’으로 볼 수 있다.
1.3 왜 ‘의도적’ 장기 기억 관리가 필요한가?
외부 환경(시험·논문 마감 등)에 끌려다니는 형태가 아닌, 내가 ‘어떤 지식을 머리에 담을지’를 스스로 결정하면 훨씬 더 폭넓은 가능성을 열 수 있다.
예: 선형대수 지식을 학부 때 열심히 배웠어도, 나중에 잊어버리면 다시 시간 들여 공부해야 한다. 이를 의도적 메모리 시스템으로 관리한다면, 후에 다시 필요할 때 비용이 훨씬 줄어든다.
또 “안 쓰면 굳이 기억할 필요 없지 않느냐?”고 생각하기 쉽지만, 미리 구조화해두지 않으면 ‘그 지식을 쓸 기회’ 자체를 포착하기가 어려워진다.
2. Anki 활용 사례
2.1 Anki와 간격 반복(Spaced Repetition)
Anki는 ‘질문-답변’ 형태의 플래시카드를 만들고, 복습 주기를 자동 관리해 주는 프로그램이다.
정확히 기억하면 복습 간격이 점점 늘어나고, 틀릴 경우 다시 자주 나오므로 **“기억을 선택 가능한 것”**으로 바꿔준다.
전통적인 암기(매주 전체 복습)보다 훨씬 효율적이라, 10분 정도의 시간 가치만 있다면 카드를 만드는 편이 낫다는 식의 경험칙(규칙)을 세울 수도 있다.
2.2 연구 논문(AlphaGo 논문) 학습 예시
Michael Nielsen이 쓴 글에서도, 저자는 2016년 나온 DeepMind의 AlphaGo 논문을 꼼꼼히 이해하기 위해 Anki를 활용했다고 한다. 이를 조금 더 풀어보면:
1. 가볍게 여러 번 읽기
알파고 논문(“Mastering the game of Go with deep neural networks and tree search”)의 핵심 용어·기술(예: Go 보드 크기, 신경망 구조, 훈련 데이터 규모 등)을 빠르게 훑어본다.
처음부터 완벽히 이해하려 하지 말고, **쉬운 ‘사실 정보’**를 Anki에 먼저 옮긴다.
예: “Go 보드 크기는 몇 × 몇인가?” (19×19)
“AlphaGo가 학습한 기보(棋譜) 데이터는 어디서 확보했나?” 등.
2.핵심 아이디어 포착 & 배경지식 보완
여러 번의 ‘가벼운 통독’을 통해 ‘정말 중요해 보이는 구간’을 구별하고, 그 주변 자료(Go 규칙, 강화학습 기초 등)를 추가로 찾아본다.
이때도 Anki 카드를 만든다. 하지만 아직 ‘깊은 수식’이나 ‘복잡한 세부 파라미터’는 건너뛰고, 배경 맥락을 형성하는 카드들을 중심으로 만든다.
예: “정책망(policy network)과 가치망(value network)의 차이는?” “알파고는 왜 MCTS(Monte Carlo Tree Search)와 결합했나?” 같은 질문형 카드.
3. 깊이 있는 정독 & 재독
배경카드를 충분히 쌓은 뒤, 이제 논문 전체를 철저히 읽으면서 세부 설계·알고리즘 흐름을 이해한다.
이때 각종 실험 결과(예: 승률 그래프, 파라미터 세팅)를 ‘그림이나 표’를 카드에 넣기도 한다. “이 그래프는 어떤 의미이며, y축이 무엇을 나타내나?” 등으로 질문형 카드를 만들 수도 있다.
연결·확장
알파고 후속 논문(AlphaGo Zero, AlphaZero)이 나왔을 때, 이전에 만든 카드들이 큰 도움을 준다.
빠르게 핵심 내용을 이해하고, 관련 카드를 추가로 만들면, 알파고 계열의 강화학습 흐름을 장기적으로 축적할 수 있게 된다.
이렇게 Anki로 학습하면, 1년 뒤 같은 주제 논문이 또 나와도 “과거 독해 경험”이 거의 그대로 남아 있는 느낌을 받을 수 있다고 한다. 즉, “장기기억이 됐기 때문에, 새 아이디어가 등장해도 맥락 이해가 빠르다.”
2.3 Anki 사용 전략
- 작게 쪼개기:
“Yes/No”식 질문보다는, 하나의 핵심 아이디어·용어를 명확히 묻고 답하도록 만든다.
“ln -s filename linkname가 어떻게 동작하나?”보다는 “유닉스에서 소프트 링크 만드는 명령어는?”, “ln -s의 인자 순서는?” 같은 식으로 나누어 카드화.
- 실제 목표와 결합:
중요하지 않은 것을 ‘미래에 언젠가 쓸지도 몰라서’ 만들면 흥미가 떨어짐.
**“지금 내가 쓰려는 글/프로젝트/연구”**에 필요한 것을 카드화할수록 잘 연결되고, 기억 유지가 수월하다.
- “고아(Orphan)” 카드 피하기:
맥락 없이 뜬금없는 사실(단 하나의 카드)만 있으면, 나중에 복습 때 “왜 이걸 외우지?” 하고 흥미를 잃기 쉽다.
관련 카드도 2~3개 이상 만들거나, 기존 카드와 연결(예: 태그, 링크)하여 고립되지 않게 한다.
- 단일 덱:
분야별로 여러 덱을 만들기보다, 하나의 큰 덱으로 통합 관리가 편리.
서로 다른 주제들이 섞일 수 있지만, 오히려 그로 인한 ‘의외의 연상’이 창의적 자극이 될 수 있다.
- 카드 밀림 방지:
Anki 복습은 매일 조금씩 꾸준히 해야, 1~2주 쌓인 뒤 한꺼번에 하느라 포기하는 일을 막는다.
이름·용어도 중요:
Feynman 일화에서 말하듯, 이름만 알아서는 ‘본질을 아는 것과 다르다’는 말이 있다. 그러나 이름·용어도 창의적 연결의 출발점이 되므로, 적극적으로 Anki에 넣는 것이 좋을 때가 많다.
3. 더 큰 관점: 기억·인지·도구
3.1 왜 장기 기억이 핵심인가?
“단순 암기”를 무시하기 쉽지만, 사실 장기적으로 정보·지식을 체화해야 문제 해결과 창의적 사고가 자유롭게 이루어진다.
체스 달인이 수많은 ‘덩어리(chunks)’를 빠르게 인식·활용하는 것처럼, 학문·엔지니어링에서도 전문가들은 방대한 개념·패턴을 장기기억에 저장해둔다.
3.2 인지과학과 기억 시스템
간격 반복(Anki 같은) 자체는 19세기 에빙하우스(Ebbinghaus)의 ‘망각 곡선’ 연구에 기반을 두지만, 실제 최적 주기가 무엇인지 완전한 이론은 아직 없다.
그래서 Anki나 SuperMemo 등은 “분산학습 이론 + 시행착오적 설계”를 결합해 만들어졌다.
결국 **“대담한 디자인(Anki 같은) + 점진적 과학 검증”**이 필요하다는 의견이 많다.
실제로 Anki가 기막히게 유용하지만, 활용자가 적거나 표준화되지 못한 이유는, 생각만큼 쉽게 습관화하기 어렵고, 대중적 교육 흐름(시험용 cramming)에 안 맞기 때문 등 요인이 있다.
4. 결론
1. 간격 반복은 저평가됨:
심리학 실험에서 그 효과가 입증되었지만, 학교나 일터 등에서 충분히 활용되지 못하고 있다.
2. Anki는 ‘숙련 기술’:
단어장처럼 쓰는 단순 암기를 넘어, 논문·책·복잡한 지식 구조를 연결·심화 학습하는 도구가 될 수 있다.
특히 “AlphaGo 논문” 사례에서처럼, 중층적인 이해(배경 이론, 신경망 설계 아이디어 등)도 카드화해 실제 프로젝트나 글쓰기에 바로 활용 가능.
3. 지식 구축의 의도적 관리:
체계적으로 기억을 훈련하고(Anki), 노트를 연결해서 제텔카스텐처럼 관리(Obsidian 등)하면 **“생각의 도구”**가 되어, 정보망이 유기적으로 확장된다.
이는 단순히 외우는 것을 넘어, 깊이 있는 이해·창의적 통찰을 꾸준히 누적해가는 방식을 만들어 준다.
https://augmentingcognition.com/ltm.html
1. 장기 기억(Long-term Memory)이 왜 중요한가?
1.1 기억의 중요성
흔히 공부나 연구에서 “기억”은 자연스레 따라오는 부산물쯤으로 여기지만, 실제로는 매우 적극적인 관리가 필요하다.
기억은 사고와 학습의 토대다. 단순 암기처럼 보여도, 높은 수준의 문제 해결·창의성 뒤에는 축적된 ‘패턴 지식’이 있다(체스 달인, 과학자들의 사례 등).
1.2 Memex·웹의 뿌리
Vannevar Bush의 “memex” 구상(1945)은 **‘개인의 기억 보조 장치’**라는 아이디어였고, 훗날 앵겔바트의 인터페이스, 테드 넬슨의 하이퍼텍스트, 팀 버너스리의 웹까지 연결되었다.
즉, **“인간 인지를 증강(Augmenting Human Intellect)”**한다는 전통이 존재해 왔으며, 이 맥락에서 Anki 같은 간격 반복 도구도 ‘개인 메모리 증강 시스템’으로 볼 수 있다.
1.3 왜 ‘의도적’ 장기 기억 관리가 필요한가?
외부 환경(시험·논문 마감 등)에 끌려다니는 형태가 아닌, 내가 ‘어떤 지식을 머리에 담을지’를 스스로 결정하면 훨씬 더 폭넓은 가능성을 열 수 있다.
예: 선형대수 지식을 학부 때 열심히 배웠어도, 나중에 잊어버리면 다시 시간 들여 공부해야 한다. 이를 의도적 메모리 시스템으로 관리한다면, 후에 다시 필요할 때 비용이 훨씬 줄어든다.
또 “안 쓰면 굳이 기억할 필요 없지 않느냐?”고 생각하기 쉽지만, 미리 구조화해두지 않으면 ‘그 지식을 쓸 기회’ 자체를 포착하기가 어려워진다.
2. Anki 활용 사례
2.1 Anki와 간격 반복(Spaced Repetition)
Anki는 ‘질문-답변’ 형태의 플래시카드를 만들고, 복습 주기를 자동 관리해 주는 프로그램이다.
정확히 기억하면 복습 간격이 점점 늘어나고, 틀릴 경우 다시 자주 나오므로 **“기억을 선택 가능한 것”**으로 바꿔준다.
전통적인 암기(매주 전체 복습)보다 훨씬 효율적이라, 10분 정도의 시간 가치만 있다면 카드를 만드는 편이 낫다는 식의 경험칙(규칙)을 세울 수도 있다.
2.2 연구 논문(AlphaGo 논문) 학습 예시
Michael Nielsen이 쓴 글에서도, 저자는 2016년 나온 DeepMind의 AlphaGo 논문을 꼼꼼히 이해하기 위해 Anki를 활용했다고 한다. 이를 조금 더 풀어보면:
1. 가볍게 여러 번 읽기
알파고 논문(“Mastering the game of Go with deep neural networks and tree search”)의 핵심 용어·기술(예: Go 보드 크기, 신경망 구조, 훈련 데이터 규모 등)을 빠르게 훑어본다.
처음부터 완벽히 이해하려 하지 말고, **쉬운 ‘사실 정보’**를 Anki에 먼저 옮긴다.
예: “Go 보드 크기는 몇 × 몇인가?” (19×19)
“AlphaGo가 학습한 기보(棋譜) 데이터는 어디서 확보했나?” 등.
2.핵심 아이디어 포착 & 배경지식 보완
여러 번의 ‘가벼운 통독’을 통해 ‘정말 중요해 보이는 구간’을 구별하고, 그 주변 자료(Go 규칙, 강화학습 기초 등)를 추가로 찾아본다.
이때도 Anki 카드를 만든다. 하지만 아직 ‘깊은 수식’이나 ‘복잡한 세부 파라미터’는 건너뛰고, 배경 맥락을 형성하는 카드들을 중심으로 만든다.
예: “정책망(policy network)과 가치망(value network)의 차이는?” “알파고는 왜 MCTS(Monte Carlo Tree Search)와 결합했나?” 같은 질문형 카드.
3. 깊이 있는 정독 & 재독
배경카드를 충분히 쌓은 뒤, 이제 논문 전체를 철저히 읽으면서 세부 설계·알고리즘 흐름을 이해한다.
이때 각종 실험 결과(예: 승률 그래프, 파라미터 세팅)를 ‘그림이나 표’를 카드에 넣기도 한다. “이 그래프는 어떤 의미이며, y축이 무엇을 나타내나?” 등으로 질문형 카드를 만들 수도 있다.
연결·확장
알파고 후속 논문(AlphaGo Zero, AlphaZero)이 나왔을 때, 이전에 만든 카드들이 큰 도움을 준다.
빠르게 핵심 내용을 이해하고, 관련 카드를 추가로 만들면, 알파고 계열의 강화학습 흐름을 장기적으로 축적할 수 있게 된다.
이렇게 Anki로 학습하면, 1년 뒤 같은 주제 논문이 또 나와도 “과거 독해 경험”이 거의 그대로 남아 있는 느낌을 받을 수 있다고 한다. 즉, “장기기억이 됐기 때문에, 새 아이디어가 등장해도 맥락 이해가 빠르다.”
2.3 Anki 사용 전략
- 작게 쪼개기:
“Yes/No”식 질문보다는, 하나의 핵심 아이디어·용어를 명확히 묻고 답하도록 만든다.
“ln -s filename linkname가 어떻게 동작하나?”보다는 “유닉스에서 소프트 링크 만드는 명령어는?”, “ln -s의 인자 순서는?” 같은 식으로 나누어 카드화.
- 실제 목표와 결합:
중요하지 않은 것을 ‘미래에 언젠가 쓸지도 몰라서’ 만들면 흥미가 떨어짐.
**“지금 내가 쓰려는 글/프로젝트/연구”**에 필요한 것을 카드화할수록 잘 연결되고, 기억 유지가 수월하다.
- “고아(Orphan)” 카드 피하기:
맥락 없이 뜬금없는 사실(단 하나의 카드)만 있으면, 나중에 복습 때 “왜 이걸 외우지?” 하고 흥미를 잃기 쉽다.
관련 카드도 2~3개 이상 만들거나, 기존 카드와 연결(예: 태그, 링크)하여 고립되지 않게 한다.
- 단일 덱:
분야별로 여러 덱을 만들기보다, 하나의 큰 덱으로 통합 관리가 편리.
서로 다른 주제들이 섞일 수 있지만, 오히려 그로 인한 ‘의외의 연상’이 창의적 자극이 될 수 있다.
- 카드 밀림 방지:
Anki 복습은 매일 조금씩 꾸준히 해야, 1~2주 쌓인 뒤 한꺼번에 하느라 포기하는 일을 막는다.
이름·용어도 중요:
Feynman 일화에서 말하듯, 이름만 알아서는 ‘본질을 아는 것과 다르다’는 말이 있다. 그러나 이름·용어도 창의적 연결의 출발점이 되므로, 적극적으로 Anki에 넣는 것이 좋을 때가 많다.
3. 더 큰 관점: 기억·인지·도구
3.1 왜 장기 기억이 핵심인가?
“단순 암기”를 무시하기 쉽지만, 사실 장기적으로 정보·지식을 체화해야 문제 해결과 창의적 사고가 자유롭게 이루어진다.
체스 달인이 수많은 ‘덩어리(chunks)’를 빠르게 인식·활용하는 것처럼, 학문·엔지니어링에서도 전문가들은 방대한 개념·패턴을 장기기억에 저장해둔다.
3.2 인지과학과 기억 시스템
간격 반복(Anki 같은) 자체는 19세기 에빙하우스(Ebbinghaus)의 ‘망각 곡선’ 연구에 기반을 두지만, 실제 최적 주기가 무엇인지 완전한 이론은 아직 없다.
그래서 Anki나 SuperMemo 등은 “분산학습 이론 + 시행착오적 설계”를 결합해 만들어졌다.
결국 **“대담한 디자인(Anki 같은) + 점진적 과학 검증”**이 필요하다는 의견이 많다.
실제로 Anki가 기막히게 유용하지만, 활용자가 적거나 표준화되지 못한 이유는, 생각만큼 쉽게 습관화하기 어렵고, 대중적 교육 흐름(시험용 cramming)에 안 맞기 때문 등 요인이 있다.
4. 결론
1. 간격 반복은 저평가됨:
심리학 실험에서 그 효과가 입증되었지만, 학교나 일터 등에서 충분히 활용되지 못하고 있다.
2. Anki는 ‘숙련 기술’:
단어장처럼 쓰는 단순 암기를 넘어, 논문·책·복잡한 지식 구조를 연결·심화 학습하는 도구가 될 수 있다.
특히 “AlphaGo 논문” 사례에서처럼, 중층적인 이해(배경 이론, 신경망 설계 아이디어 등)도 카드화해 실제 프로젝트나 글쓰기에 바로 활용 가능.
3. 지식 구축의 의도적 관리:
체계적으로 기억을 훈련하고(Anki), 노트를 연결해서 제텔카스텐처럼 관리(Obsidian 등)하면 **“생각의 도구”**가 되어, 정보망이 유기적으로 확장된다.
이는 단순히 외우는 것을 넘어, 깊이 있는 이해·창의적 통찰을 꾸준히 누적해가는 방식을 만들어 준다.
https://augmentingcognition.com/ltm.html
👍2
오늘에야 언론을 타고 있는 스타게이트 프로젝트는 작년 초에 이미 발표된 프로젝트이다. 트럼프 대통령 취임에 맞춰 홍보차 다시 띄운 것으로 보임. MS와 OpenAI가 스타게이트 슈퍼컴퓨팅 계획 및 구축 발표 후, 샘 알트만이 MS와의 사이에 무슨 일이 있었는지 중동에서 펀딩 유치에 나선 게 화제가 된 바 있다. 이번 발표는 작년 것과 비교해 보았을 때 규모나 액수가 바뀌지 않아 새로운 AI 아젠다라기보다는 미국 정권 교체에 따른 움직임으로 봐야 할 것 같다.
주목할 점은 이번엔 MS 대신 오라클이 전면에 나섰다는 것이다. 실제 진행은 MS가 맡되, 오라클 클라우드 팜을 활용하는 방식이 될 것으로 예상된다. MS가 Azure에 대규모 투자 중이라 여기에 명시적으로 투자할 추가 하드웨어 여력이 부족하고, 오라클은 'CSP를 위한 클라우드'로 포지셔닝하고 있어 이런 구도가 만들어진 것으로 보인다. 또한 오라클 팜과 Azure 팜은 초고속 네트워크로 이어져있다는걸 항상 강조해 온 것도 이런 파트너십에 영향을 줬을 것이다. 동시에 OpenAI의 실소유권 관련으로 반독점 관련하여 작년에 MS가 고생도 했으니 몇가지 조건 걸고 허가했을 듯 하다. OpenAI의 클라우드 리소스 사용시 Azure 우선권 정도를 보장받지 않았을까 싶다.
특이한 점 몇가지. 정부 투자가 빠져있다. 정부는 숟가락 얹기에 그치는 것으로 보인다. 정권에 대한 일종의 여론 선물. 또 하나는 소프트뱅크의 적극적 참여. 작년 초부터 소프트뱅크가 AI 가속기 사업 진출을 노리고 있다. Arm의 NPU 사업 강화나 GraphCore 인수가 그 예다. 이런 이해관계가 OpenAI의 자체 AI 가속기+가속팜 확보 전략과 맞물려 이번 협력이 성사된게 아닐까 싶다. 아마 향후 소프트뱅크의 스타게이트 투자에 NPU 형태의 현물 출자가 포함될 가능성도 있을 듯.
신정규님
주목할 점은 이번엔 MS 대신 오라클이 전면에 나섰다는 것이다. 실제 진행은 MS가 맡되, 오라클 클라우드 팜을 활용하는 방식이 될 것으로 예상된다. MS가 Azure에 대규모 투자 중이라 여기에 명시적으로 투자할 추가 하드웨어 여력이 부족하고, 오라클은 'CSP를 위한 클라우드'로 포지셔닝하고 있어 이런 구도가 만들어진 것으로 보인다. 또한 오라클 팜과 Azure 팜은 초고속 네트워크로 이어져있다는걸 항상 강조해 온 것도 이런 파트너십에 영향을 줬을 것이다. 동시에 OpenAI의 실소유권 관련으로 반독점 관련하여 작년에 MS가 고생도 했으니 몇가지 조건 걸고 허가했을 듯 하다. OpenAI의 클라우드 리소스 사용시 Azure 우선권 정도를 보장받지 않았을까 싶다.
특이한 점 몇가지. 정부 투자가 빠져있다. 정부는 숟가락 얹기에 그치는 것으로 보인다. 정권에 대한 일종의 여론 선물. 또 하나는 소프트뱅크의 적극적 참여. 작년 초부터 소프트뱅크가 AI 가속기 사업 진출을 노리고 있다. Arm의 NPU 사업 강화나 GraphCore 인수가 그 예다. 이런 이해관계가 OpenAI의 자체 AI 가속기+가속팜 확보 전략과 맞물려 이번 협력이 성사된게 아닐까 싶다. 아마 향후 소프트뱅크의 스타게이트 투자에 NPU 형태의 현물 출자가 포함될 가능성도 있을 듯.
신정규님
Forwarded from 전종현의 인사이트
생각 이상으로 거대한 파도다.
생각할 지점들
- 역시나 AI는 컴퓨팅 인프라의
게임
- $500b 라는 투자 규모
- 참여사들: 오픈AI, 소뱅, 오라클 그리고 MGX
- 역시나 중동 자금이 들어온다
- ARM과 엔비디아도 참여
- 손정의가 체어맨. 머스크, 피터틸 만큼이나 주목할 필요가 있음. 그리고 비전펀드도.
https://openai.com/index/announcing-the-stargate-project/
생각할 지점들
- 역시나 AI는 컴퓨팅 인프라의
게임
- $500b 라는 투자 규모
- 참여사들: 오픈AI, 소뱅, 오라클 그리고 MGX
- 역시나 중동 자금이 들어온다
- ARM과 엔비디아도 참여
- 손정의가 체어맨. 머스크, 피터틸 만큼이나 주목할 필요가 있음. 그리고 비전펀드도.
https://openai.com/index/announcing-the-stargate-project/
Openai
Announcing The Stargate Project
권석준님
한국 시간으로 1월 22일, 방금 올라온 트럼프 대통령의 기자회견 중 (미 동부 시간 1월 21일 오후 5시 전후), 드디어 AI와 반도체에 대한 내용이 언급되기 시작했다. 그는 일명 '스타게이트' 프로젝트를 발표했으며, 무려 5,000억 달러 (~700조원, 500억 달러가 아님) 규모에 달하는 이 프로젝트의 핵심은 AI 그 이상, 즉, AGI의 생태계와 주도권을 미국이 가져가겠다는 강력한 의도와 맞물린다.
이 프로젝트의 주요 축은 오픈AI (+MS), 소프트뱅크, 그리고 오라클이다. 오픈 AI가 포함된 것은 당연해 보이지만, 일본 기업인 소프트뱅크, 그리고 DB와 서버 솔루션 기업인 오라클이 들어가 있는 것은 특기할만하다. 트럼프 대통령이 회견에서도 이야기했듯, 이 프로젝트의 핵심 가치는 미국이 AI 이후의 시대에서도 세계의 주도권을 놓지 않겠다는 것이고, 그 기저에는 미국의 안보가 자리잡는다. 하나 주목할 것은 이 안보적 가치에 미국 뿐만 아니라 미국의 동맹국들도 언급된 것 (구체적인 동맹국은 나열되지 않았음)이다. 이는 선해해보면, 전임 바이든 정부에서 내세웠던 기술안보의 철학을 계승하고 (즉, 미국+동맹국 위주의 기술+경제 안보), 조금 더 선명하게 AI 및 관련 기술에 전략적 가중치를 더 얹겠다는 뜻으로 해석된다. 그렇지만 또 한 편으로 비관적으로 바라본다면, 미국이 주도하는 AI, 아니 이제는 AGI라고 못 박아 버린 전략적 목표에 대해, 충분히 기여할 성의나 핵심 기술이나 자본이 없는 국가 (혹은 그 국가의 기업)은 미국이 주도하는 판에 들어올 생각을 하지 말아라로 해석될 수 있다.
스타게이트 프로젝트의 한 축을 당당히 차지하는 소프트뱅크의 경우, IT 기업이기도 하지만 이미 손 마사요시 회장이 작년에 트럼프의 플로리다 마라라고 저택에 방문하여 친근감을 표시하며 거대한 투자 계획을 발표한 바 있기 때문에, 어떤 식으로든 트럼프 2기 정부에서 추진하는 AI 사업에 들어올 것이라는 예상은 많이 있었다. 그런데 이번에 발표된 바에 따르면, 소프트뱅크가 하는 역할은 그냥 참여 수준을 넘어, 손 마사요시 회장이 스타게이트 프로젝트의 회장으로 취임하고, 재무 관리 (즉, 자본 조달과 투자 책임)까지 겸한다는 것. 단순히 SB가 미국 주도의 AI 사업에 일부 플레이어 자격으로서의 참여라는 차원을 넘어, 주력 플레이어로 참여한다는 뜻이 된다. 당연히 그 이면에는 일본 정부가 지난 트럼프 1기 때부터 (그 당시 일본은 아베 정부) 공들여 로비해 온 작업물들이 포함된다. 예를 들어 일본은 트럼프 1기, 그리고 전임 바이든 정권 내내 꾸준히 일본의 IT, 특히 반도체 산업을 부흥시키고자 하는 모멘텀을 얻고자 다양한 정책적 시도를 했고, 실제로 일본 정부에서는 정부 차원에서 공적 자금을 투입하여 일본 내에 반도체 제조 생태계를 재구축하는 작업을 지난 5년간 실행해 왔다.(TSMC와의 JASM, 히로시마 마이크론 팹 확장 보조금, 홋카이도 래피더스 팹, PSMC 합작 팹 유치 등) 이러한 배경 하에, 민간 투자자 자격으로 손 마사요시의 SB가 이번 스타게이트에 포함된 것이긴 하나, 그 이면에 있는 일본 정부의 전략적 플랜도 같이 들여다 보아야 한다. 일본 정부가 생각하는 전략의 기본 근거는 미국이 AI와 반도체 산업을 100% 리쇼어링하기는 어려울 것이므로 (비용적 측면과 공급망 생태계 구축의 난도), 일부를 일본이 담당하는 것, 대신 일본은 미국 주도의 공급망 재편의 가장 중요한 파트너로 자리잡고, AI 혹은 나아가 AGI가 주도하게 될 새로운 판에서 예전의 광영을 되찾는다는 것이다. SB가 스타게이트의 주축이 됨으로써 일단 일본 정부가 8년 넘게 공들여 왔던 이 전략의 포석 한 개가 자리잡게 되었다.
이 프로젝트의 또 다른 축은 오라클이다. 많은 이들은 오라클이 전형적인 B2B 기업으로 DB 관리나 서버 솔루션 등의 영역에만 국한되었다고 생각하나, 생각보다 오라클은 이 영역에서 굉장히 지배적인 영향력을 발휘해 온 기업이라 기술은 물론, 자본도 엄청나게 축적되어 있는 것으로 알고 있다. 작년 초에 우연히 어떤 포럼에서 오라클 출신의 컨설턴트와 만나 식사를 한 적이 있는데, 그가 술 마시며 흘리는 이야기로 건넨 것이 오라클 내에 축적된 자본이 어마어마하다는 것이었다. 나는 그렇게 축적된 자본을 오라클이 AI 사업에 뛰어드는 과정에서 투자할 것인지를 물어 봤는데, 그 컨설턴트는 그것은 당연하고, 오라클은 그 너머를 보고 있는 것 같다는 이야기를 했다. 나는 당시에 '그 너머'가 AI 서버나 서버 간 통신 시스템 등을 이야기하는 것으로 막연하게 생각했다. 그렇지만 오늘 나온 내용을 보니, 전혀 다른 영역이다. 즉, 첨단바이오가 언급된다. 아예 AI를 활용한 첨단 바이오의 주 응용처로서 개인별 맞춤형 암백신이 언급된다. 이는 나도 예전부터 줄곧 주장해 온 AI의 다음 전장으로서의 첨단 바이오에서 이야기했던 바이지만, 나는 그 주역이 딥마인드 같은 AI 기업과 기존의 바이오텍의 결합체가 될 줄 알았다. 그런데 오라클이 여기에 들어오고 있다. 오히려 구글 딥마인드는 스타게이트에서 언급되지 않고 있다는 점이 흥미로울 정도다. 오라클은 오픈 AI와 SB가 '제공하는' AI 플랫폼을 기반으로 개인 유전자 레벨에서 분석된 유전 정보를 분석/예측하여 mRNA 기반의 암 백신을 무려 48만에 자동화된 (아마도 AI로) 로봇 기반 제조 공정으로 만들 수 있다고 이야기한다. 몇 년 전 같았으면 SF 같은 이야기였겠지만, 이제는 이미 실현된 기술에 가깝기 때문에 이는 자본의 문제이지, 더 이상 기술 실현의 문제가 아니게 되었다. 그런데 여기에 오라클이 들어온다는 것은 오라클이 전통적인 비즈니스 모델을 바꿔, 아예 새로운 비즈니스 모델을 주도하겠다는 뜻으로 읽힌다.
전임 바이든 정권 말기였던 작년 하반기, 미국의 주요 IT 업체들은 이른바 UA LINK 라는 새로운 AI 가속기 표준을 공동으로 수립하여 엔비디아가 주도하는 (여기서 레퍼런스는 엔비디아의 NV LINK다. UA LINK가 무엇을 차용했는지 분명하다.) AI 가속기 독점 시장을 타파하고, 각자 원하는 수준의 AI 가속기 하드웨어를 만든다는 계획을 발표한 바 있다. 여기에는 구글(알파벳), 메타, 시스코, HP, MS, 인텔, 오라클, 브로드컴 등이 들어온다. 전원 미국 IT 기업이기 때문에, 이러한 기업간 클러스터의 형성은 다분히 미국의 국가 안보적 관점이 개입된 결과물로만 보였다. 그렇지만 오늘 트럼프가 발표한 내용에는 구글, 메타, 시스코, HP, 인텔, 브로드컴이 빠졌다. 특히 독점적 지배력을 발휘하고 있는 엔비디아는 아예 언급도 되지 않았다. 이것은 무엇을 의미하는가? 트럼프가 구상하는 스타게이트 프로젝트의 참여 자격에는 기술력, 자본력 뿐만 아니라, 트럼프식 국제질서 재편 동참 의지 (즉, 충성도)도 중요한 요인이 되고 있다는 뜻이다. 구글은 전통적으로 민주당 지지쪽이었고, 메타는 다소 민주당쪽이었으나 바이든 정부에서 공화당으로 무게중심이 이동한 상황 정도, 그러나 여전히 트럼프가 보기에는 만족스럽지 못한 상황이었을 것이다. 시스코나 HPE는 이제 과거만큼 존재감이 별로 없다손 치더라도, 새로운 강자로 떠올랐던 브로드컴이 빠졌고, 하드웨어 생산을 담당할 인텔도 빠진 것은 충성도 문제보다는 기술력 문제, 그리고 자본력 문제일 가능성도 있다. 이 결정 이면에 무엇이 있었는지는 시간이 지나면서 차차 드러나게 될 것이다.
한국 시간으로 1월 22일, 방금 올라온 트럼프 대통령의 기자회견 중 (미 동부 시간 1월 21일 오후 5시 전후), 드디어 AI와 반도체에 대한 내용이 언급되기 시작했다. 그는 일명 '스타게이트' 프로젝트를 발표했으며, 무려 5,000억 달러 (~700조원, 500억 달러가 아님) 규모에 달하는 이 프로젝트의 핵심은 AI 그 이상, 즉, AGI의 생태계와 주도권을 미국이 가져가겠다는 강력한 의도와 맞물린다.
이 프로젝트의 주요 축은 오픈AI (+MS), 소프트뱅크, 그리고 오라클이다. 오픈 AI가 포함된 것은 당연해 보이지만, 일본 기업인 소프트뱅크, 그리고 DB와 서버 솔루션 기업인 오라클이 들어가 있는 것은 특기할만하다. 트럼프 대통령이 회견에서도 이야기했듯, 이 프로젝트의 핵심 가치는 미국이 AI 이후의 시대에서도 세계의 주도권을 놓지 않겠다는 것이고, 그 기저에는 미국의 안보가 자리잡는다. 하나 주목할 것은 이 안보적 가치에 미국 뿐만 아니라 미국의 동맹국들도 언급된 것 (구체적인 동맹국은 나열되지 않았음)이다. 이는 선해해보면, 전임 바이든 정부에서 내세웠던 기술안보의 철학을 계승하고 (즉, 미국+동맹국 위주의 기술+경제 안보), 조금 더 선명하게 AI 및 관련 기술에 전략적 가중치를 더 얹겠다는 뜻으로 해석된다. 그렇지만 또 한 편으로 비관적으로 바라본다면, 미국이 주도하는 AI, 아니 이제는 AGI라고 못 박아 버린 전략적 목표에 대해, 충분히 기여할 성의나 핵심 기술이나 자본이 없는 국가 (혹은 그 국가의 기업)은 미국이 주도하는 판에 들어올 생각을 하지 말아라로 해석될 수 있다.
스타게이트 프로젝트의 한 축을 당당히 차지하는 소프트뱅크의 경우, IT 기업이기도 하지만 이미 손 마사요시 회장이 작년에 트럼프의 플로리다 마라라고 저택에 방문하여 친근감을 표시하며 거대한 투자 계획을 발표한 바 있기 때문에, 어떤 식으로든 트럼프 2기 정부에서 추진하는 AI 사업에 들어올 것이라는 예상은 많이 있었다. 그런데 이번에 발표된 바에 따르면, 소프트뱅크가 하는 역할은 그냥 참여 수준을 넘어, 손 마사요시 회장이 스타게이트 프로젝트의 회장으로 취임하고, 재무 관리 (즉, 자본 조달과 투자 책임)까지 겸한다는 것. 단순히 SB가 미국 주도의 AI 사업에 일부 플레이어 자격으로서의 참여라는 차원을 넘어, 주력 플레이어로 참여한다는 뜻이 된다. 당연히 그 이면에는 일본 정부가 지난 트럼프 1기 때부터 (그 당시 일본은 아베 정부) 공들여 로비해 온 작업물들이 포함된다. 예를 들어 일본은 트럼프 1기, 그리고 전임 바이든 정권 내내 꾸준히 일본의 IT, 특히 반도체 산업을 부흥시키고자 하는 모멘텀을 얻고자 다양한 정책적 시도를 했고, 실제로 일본 정부에서는 정부 차원에서 공적 자금을 투입하여 일본 내에 반도체 제조 생태계를 재구축하는 작업을 지난 5년간 실행해 왔다.(TSMC와의 JASM, 히로시마 마이크론 팹 확장 보조금, 홋카이도 래피더스 팹, PSMC 합작 팹 유치 등) 이러한 배경 하에, 민간 투자자 자격으로 손 마사요시의 SB가 이번 스타게이트에 포함된 것이긴 하나, 그 이면에 있는 일본 정부의 전략적 플랜도 같이 들여다 보아야 한다. 일본 정부가 생각하는 전략의 기본 근거는 미국이 AI와 반도체 산업을 100% 리쇼어링하기는 어려울 것이므로 (비용적 측면과 공급망 생태계 구축의 난도), 일부를 일본이 담당하는 것, 대신 일본은 미국 주도의 공급망 재편의 가장 중요한 파트너로 자리잡고, AI 혹은 나아가 AGI가 주도하게 될 새로운 판에서 예전의 광영을 되찾는다는 것이다. SB가 스타게이트의 주축이 됨으로써 일단 일본 정부가 8년 넘게 공들여 왔던 이 전략의 포석 한 개가 자리잡게 되었다.
이 프로젝트의 또 다른 축은 오라클이다. 많은 이들은 오라클이 전형적인 B2B 기업으로 DB 관리나 서버 솔루션 등의 영역에만 국한되었다고 생각하나, 생각보다 오라클은 이 영역에서 굉장히 지배적인 영향력을 발휘해 온 기업이라 기술은 물론, 자본도 엄청나게 축적되어 있는 것으로 알고 있다. 작년 초에 우연히 어떤 포럼에서 오라클 출신의 컨설턴트와 만나 식사를 한 적이 있는데, 그가 술 마시며 흘리는 이야기로 건넨 것이 오라클 내에 축적된 자본이 어마어마하다는 것이었다. 나는 그렇게 축적된 자본을 오라클이 AI 사업에 뛰어드는 과정에서 투자할 것인지를 물어 봤는데, 그 컨설턴트는 그것은 당연하고, 오라클은 그 너머를 보고 있는 것 같다는 이야기를 했다. 나는 당시에 '그 너머'가 AI 서버나 서버 간 통신 시스템 등을 이야기하는 것으로 막연하게 생각했다. 그렇지만 오늘 나온 내용을 보니, 전혀 다른 영역이다. 즉, 첨단바이오가 언급된다. 아예 AI를 활용한 첨단 바이오의 주 응용처로서 개인별 맞춤형 암백신이 언급된다. 이는 나도 예전부터 줄곧 주장해 온 AI의 다음 전장으로서의 첨단 바이오에서 이야기했던 바이지만, 나는 그 주역이 딥마인드 같은 AI 기업과 기존의 바이오텍의 결합체가 될 줄 알았다. 그런데 오라클이 여기에 들어오고 있다. 오히려 구글 딥마인드는 스타게이트에서 언급되지 않고 있다는 점이 흥미로울 정도다. 오라클은 오픈 AI와 SB가 '제공하는' AI 플랫폼을 기반으로 개인 유전자 레벨에서 분석된 유전 정보를 분석/예측하여 mRNA 기반의 암 백신을 무려 48만에 자동화된 (아마도 AI로) 로봇 기반 제조 공정으로 만들 수 있다고 이야기한다. 몇 년 전 같았으면 SF 같은 이야기였겠지만, 이제는 이미 실현된 기술에 가깝기 때문에 이는 자본의 문제이지, 더 이상 기술 실현의 문제가 아니게 되었다. 그런데 여기에 오라클이 들어온다는 것은 오라클이 전통적인 비즈니스 모델을 바꿔, 아예 새로운 비즈니스 모델을 주도하겠다는 뜻으로 읽힌다.
전임 바이든 정권 말기였던 작년 하반기, 미국의 주요 IT 업체들은 이른바 UA LINK 라는 새로운 AI 가속기 표준을 공동으로 수립하여 엔비디아가 주도하는 (여기서 레퍼런스는 엔비디아의 NV LINK다. UA LINK가 무엇을 차용했는지 분명하다.) AI 가속기 독점 시장을 타파하고, 각자 원하는 수준의 AI 가속기 하드웨어를 만든다는 계획을 발표한 바 있다. 여기에는 구글(알파벳), 메타, 시스코, HP, MS, 인텔, 오라클, 브로드컴 등이 들어온다. 전원 미국 IT 기업이기 때문에, 이러한 기업간 클러스터의 형성은 다분히 미국의 국가 안보적 관점이 개입된 결과물로만 보였다. 그렇지만 오늘 트럼프가 발표한 내용에는 구글, 메타, 시스코, HP, 인텔, 브로드컴이 빠졌다. 특히 독점적 지배력을 발휘하고 있는 엔비디아는 아예 언급도 되지 않았다. 이것은 무엇을 의미하는가? 트럼프가 구상하는 스타게이트 프로젝트의 참여 자격에는 기술력, 자본력 뿐만 아니라, 트럼프식 국제질서 재편 동참 의지 (즉, 충성도)도 중요한 요인이 되고 있다는 뜻이다. 구글은 전통적으로 민주당 지지쪽이었고, 메타는 다소 민주당쪽이었으나 바이든 정부에서 공화당으로 무게중심이 이동한 상황 정도, 그러나 여전히 트럼프가 보기에는 만족스럽지 못한 상황이었을 것이다. 시스코나 HPE는 이제 과거만큼 존재감이 별로 없다손 치더라도, 새로운 강자로 떠올랐던 브로드컴이 빠졌고, 하드웨어 생산을 담당할 인텔도 빠진 것은 충성도 문제보다는 기술력 문제, 그리고 자본력 문제일 가능성도 있다. 이 결정 이면에 무엇이 있었는지는 시간이 지나면서 차차 드러나게 될 것이다.
👍3
중요한 부분은 스타게이트 프로젝트가 거대한 자본력을 앞세워 성립한다고 하더라도, 결국 병목지점에 해당하는 거대한 규모의 AI 가속기 서버 구축을 위한 서버랙과 GPU 생산, 패키징, 메모리 등의 하드웨어를 누가 담당할 것이냐다. 인텔이 상황이 좋았다면 트럼프의 구상에서 당당히 한 축을 차지했겠지만 지금으로서는 상황이 여의치 않고, 트럼프 특성 상, 이 한 축을 동맹국도 아닌 대만의 TSMC를 콕 짚어 맡기고 싶어하지도 않았을 것이다. TSMC까지 가기 전에, 가장 중요한 기업인 엔비디아가 트럼프의 구상에서 어떤 역할을 하게 될지가 관건인데, 공교롭게도 이 중요한 시점에 엔비디아의 CEO 젠슨 황은 트럼프의 취임식 초청을 거절하고 대만도 아닌 중국에 방문하여 중국 시장이 매우 중요함을 강조하는 발언을 했다. 이것이 다분히 의도적인 것인지, 오비이락인지는 현재로서는 불분명하지만, 엔비디아 없이 스타게이트가 홀로 성립하기는 현재로서는 불가능해보이므로, 트럼프 정부가 과연 어떻게 엔비디아를 다루게 될지가 스타게이트, 그리고 그것이 꿈꾸는 AGI의 성립 여부를 결정하는 중요한 변수가 될 것이다. 가장 나쁜 시나리오라면, 트럼프 정부에서 엔비디아의 중국 시장으로의 무게중심 이동을 안보적 이유를 근거로 제재하거나, 심지어 엔비디아를 독과점 기업으로 규정하여 해체-분리하는 정책을 추진할 수도 있다는 것. 이는 엔비디아 뿐만 아니라, 전세계 AI 산업 자체를 위축시키는 결과를 가져올 것인데, 중국 입장에서는 오히려 중국 주도의 AI 생태계에 힘이 실리는 후과를 가져올 가능성이 높다.
스타게이트 프로젝트에서 블랙홀처럼 기존의 IT, AI 분야 민간 투자금을 빨아들이기 시작하면, 기존의 AI 관련 기업들은 원하든 원치않든, 직간접적으로 스타게이트 프로젝트에 참여할 수 밖에 없을 것이다. 이 과정에서 인텔을 인수하는 컨소시엄 이야기가 구체화될 것이고, 인수될 경우, 인텔은 파운드리 (IFS)를 분리하는 결정을 받아들여야 할 것이다. IFS를 인수한 스타게이트 컨소시엄은 안보적 이슈를 근거로, 미국의 AI 반도체는 TSMC 같은 외국 기업이 아닌, 미국 기업에서, 혹은 적어도 미국내 팹에서만 만들어야 한다는 규칙을 강요할 가능성이 높고, 이를 헷징하기 위해 TSMC는 아마도 피닉스 팹과 비슷한 규모의 팹을 레드 스테이트 어딘가에 추가로 증설해야 할 수도, 심지어는 신주 단지에 있는 공급망 생태계 전체를 미국으로 이전한다는 과감한 결정을 내려야 할 수도 있다. 물론 대만 정부 입장에서는 매우 생각하기 싫은 시나리오일 것이다.
문제는 한국이다.
그렇지 않아도 작년 말부터 이어지는 혼란스러운 국내 정치 상황 속에서, 하필 그 기간과 정확히 겹친 미국의 정권 교체 과정에 대해 대행의 대행이 이끌어가는 정부 차원에서는 아무래도 전략적 정책 수정이 제대로 이루어지지 못하고 있는 상황. 더구나 국내 IT, AI, 반도체 기업 등도 정부의 지원을 기대하기 어려우니, 그냥 각 회사 차원에서 겨우겨우 여기저기 선을 대어 기민하게 바뀌는 미국의 대외정책 환경 변화를 아슬아슬하게 팔로업하고 있으나, 일본 만큼의 민-관 협동의 기민한 대응은 전혀 보이지 않는다. 스타게이트 프로젝트가 성립되면, 앞서 언급한 프로젝트 전용의 AI 하드웨어 시스템이 병목이 될 수 밖에 없고, 그 한 축이 되는 HBM 같은 메모리 공급자로서 한국의 메모리 업체들이 취해야 할 전략이 바뀌어야 함은 자명하다. 하이닉스는 지금까지 몇 년 간 엔비디아와의 협업으로 HBM에서 막대한 이익을 쌓아 왔지만, 하이닉스의 HBM은 사실상 전략 엔비디아향이라는 상황에서 포트폴리오 다변화가 보이지 않는 상황, 그리고 엔비디아 독점 구조에 대한 트럼프 정부의 견제가 있을 경우, 콜래터럴 데미지가 생길 수 밖에 없는 상황에서 헷징 전략이 안 보이는 상황은 점점 우려스러워진다. 삼성전자는 몇 년 간 지속적으로 엔비디아 세컨 벤더를 뚫으려 했지만 제대로 양산으로 이어지지 못 하고 있는 상황 속에, 그나마 UA LINK나 스타게이트 프로젝트 등의 파트너 자격을 획득하기 위한 투자 계획, 혹은 표준 공유 계획을 수립하고 대응해야 하나, 여전히 엔비디아 안개 속에 오리무중이 바뀌지 않는다. CES 에서 AI 기업으로 포장하려 했으나, 시장의 반응은 여전히 냉담하고 삼성 내부에서도 AI에서 도대체 무엇을 할 수 있는지에 대해 전략적 판단은 뚜렷해 보이지 않는다. 국내 AI 하드웨어 스타트업들 상황도 곤혹스럽기는 마찬가지일 것이다. 원래도 엔비디아 상대로 GPU로는 승부가 안 되었고, 그래서 결국 NPU나 TPU로 방향을 바꿔 아직 엔비디아가 손을 뻗치지 않은 영역에서 승부하려는 한국의 토종 AI 업체들은 소버린 AI 등으로 방향을 정하거나, 아주 특수한 목적의 AI 가속 성능을 기반으로 한 데이터 처리 분야를 시장으로 삼으려 하나, 스타게이트가 보여주는 판이 바뀌는 모멘텀, 예를 들어 첨단 바이오와 로봇을 결합한 전혀 새로운 개념 등을 따라가기는 매우 버거워 보인다.
그나마 한국이 지금이라도 기존의 역량을 기반으로 너무나 빨리 바뀌는 지금의 상황에 대응하기 위해서라면 여전히 미국 자체적인 역량으로는 감당이 안 되는 전통적인 제조업 분야의 혁신이 될 것이다. 이 영역은 기존의 산업 기반이 보존되어 있어야 할 뿐더러, 안보적 관점에서도 중요성이 부각되는 영역이 되어야 한다. 예를 들어 기계, 조선, 방산, 에너지, 석유화학, 발전, 송배전 등이 될 것이다. 이 영역은 대부분 한국이 잘 해 왔던 분야이지만, 규모의 경제와 막대한 내수시장을 앞세운 중국이 세계적 지배력을 대부분 석권하고 있는 분야기도 하다. 다만 이러한 기존 거대 제조업 혹은 사회인프라 구축, 유지 관련 산업들은 경제적 논리로만 끌고가기 어려운 산업이고, 안보적 맥락에서는 더더욱 중요해질 산업이기 때문에, 미국 입장에서도 파트너 국가가 다수 존재해야 한다. 과거에는 그것이 나토에 속한 프랑스, 독일, 영국, 그리고 동아시아의 일본 등이었고, 21세기에는 한국과 대만, 일본, 일부 아세안 국가 등으로 바뀌는 중이다. 이 영역은 중국과도 경쟁해야 하지만, 기술과 산업의 일대 혁신이 필요한데, 그 모멘텀은 어쨌든 AI가 될 수 밖에 없고, 각 도메인에 맞는 AI 기반 변화의 선점이 중요하다. 한국에게 아직 남은 기회가 있다면 이 부분이 될 것이다. 원래는 일본이 민-관 합동으로 이 영역까지 다 가져가고 싶어했을 것이지만, 일본은 이러한 모멘텀을 투입하기에는 이미 관련 산업이 많이 쇠퇴한 상황이라 모든 산업을 다 미국에 대해 소구하기는 어려울 것이다.
스타게이트 프로젝트에서 블랙홀처럼 기존의 IT, AI 분야 민간 투자금을 빨아들이기 시작하면, 기존의 AI 관련 기업들은 원하든 원치않든, 직간접적으로 스타게이트 프로젝트에 참여할 수 밖에 없을 것이다. 이 과정에서 인텔을 인수하는 컨소시엄 이야기가 구체화될 것이고, 인수될 경우, 인텔은 파운드리 (IFS)를 분리하는 결정을 받아들여야 할 것이다. IFS를 인수한 스타게이트 컨소시엄은 안보적 이슈를 근거로, 미국의 AI 반도체는 TSMC 같은 외국 기업이 아닌, 미국 기업에서, 혹은 적어도 미국내 팹에서만 만들어야 한다는 규칙을 강요할 가능성이 높고, 이를 헷징하기 위해 TSMC는 아마도 피닉스 팹과 비슷한 규모의 팹을 레드 스테이트 어딘가에 추가로 증설해야 할 수도, 심지어는 신주 단지에 있는 공급망 생태계 전체를 미국으로 이전한다는 과감한 결정을 내려야 할 수도 있다. 물론 대만 정부 입장에서는 매우 생각하기 싫은 시나리오일 것이다.
문제는 한국이다.
그렇지 않아도 작년 말부터 이어지는 혼란스러운 국내 정치 상황 속에서, 하필 그 기간과 정확히 겹친 미국의 정권 교체 과정에 대해 대행의 대행이 이끌어가는 정부 차원에서는 아무래도 전략적 정책 수정이 제대로 이루어지지 못하고 있는 상황. 더구나 국내 IT, AI, 반도체 기업 등도 정부의 지원을 기대하기 어려우니, 그냥 각 회사 차원에서 겨우겨우 여기저기 선을 대어 기민하게 바뀌는 미국의 대외정책 환경 변화를 아슬아슬하게 팔로업하고 있으나, 일본 만큼의 민-관 협동의 기민한 대응은 전혀 보이지 않는다. 스타게이트 프로젝트가 성립되면, 앞서 언급한 프로젝트 전용의 AI 하드웨어 시스템이 병목이 될 수 밖에 없고, 그 한 축이 되는 HBM 같은 메모리 공급자로서 한국의 메모리 업체들이 취해야 할 전략이 바뀌어야 함은 자명하다. 하이닉스는 지금까지 몇 년 간 엔비디아와의 협업으로 HBM에서 막대한 이익을 쌓아 왔지만, 하이닉스의 HBM은 사실상 전략 엔비디아향이라는 상황에서 포트폴리오 다변화가 보이지 않는 상황, 그리고 엔비디아 독점 구조에 대한 트럼프 정부의 견제가 있을 경우, 콜래터럴 데미지가 생길 수 밖에 없는 상황에서 헷징 전략이 안 보이는 상황은 점점 우려스러워진다. 삼성전자는 몇 년 간 지속적으로 엔비디아 세컨 벤더를 뚫으려 했지만 제대로 양산으로 이어지지 못 하고 있는 상황 속에, 그나마 UA LINK나 스타게이트 프로젝트 등의 파트너 자격을 획득하기 위한 투자 계획, 혹은 표준 공유 계획을 수립하고 대응해야 하나, 여전히 엔비디아 안개 속에 오리무중이 바뀌지 않는다. CES 에서 AI 기업으로 포장하려 했으나, 시장의 반응은 여전히 냉담하고 삼성 내부에서도 AI에서 도대체 무엇을 할 수 있는지에 대해 전략적 판단은 뚜렷해 보이지 않는다. 국내 AI 하드웨어 스타트업들 상황도 곤혹스럽기는 마찬가지일 것이다. 원래도 엔비디아 상대로 GPU로는 승부가 안 되었고, 그래서 결국 NPU나 TPU로 방향을 바꿔 아직 엔비디아가 손을 뻗치지 않은 영역에서 승부하려는 한국의 토종 AI 업체들은 소버린 AI 등으로 방향을 정하거나, 아주 특수한 목적의 AI 가속 성능을 기반으로 한 데이터 처리 분야를 시장으로 삼으려 하나, 스타게이트가 보여주는 판이 바뀌는 모멘텀, 예를 들어 첨단 바이오와 로봇을 결합한 전혀 새로운 개념 등을 따라가기는 매우 버거워 보인다.
그나마 한국이 지금이라도 기존의 역량을 기반으로 너무나 빨리 바뀌는 지금의 상황에 대응하기 위해서라면 여전히 미국 자체적인 역량으로는 감당이 안 되는 전통적인 제조업 분야의 혁신이 될 것이다. 이 영역은 기존의 산업 기반이 보존되어 있어야 할 뿐더러, 안보적 관점에서도 중요성이 부각되는 영역이 되어야 한다. 예를 들어 기계, 조선, 방산, 에너지, 석유화학, 발전, 송배전 등이 될 것이다. 이 영역은 대부분 한국이 잘 해 왔던 분야이지만, 규모의 경제와 막대한 내수시장을 앞세운 중국이 세계적 지배력을 대부분 석권하고 있는 분야기도 하다. 다만 이러한 기존 거대 제조업 혹은 사회인프라 구축, 유지 관련 산업들은 경제적 논리로만 끌고가기 어려운 산업이고, 안보적 맥락에서는 더더욱 중요해질 산업이기 때문에, 미국 입장에서도 파트너 국가가 다수 존재해야 한다. 과거에는 그것이 나토에 속한 프랑스, 독일, 영국, 그리고 동아시아의 일본 등이었고, 21세기에는 한국과 대만, 일본, 일부 아세안 국가 등으로 바뀌는 중이다. 이 영역은 중국과도 경쟁해야 하지만, 기술과 산업의 일대 혁신이 필요한데, 그 모멘텀은 어쨌든 AI가 될 수 밖에 없고, 각 도메인에 맞는 AI 기반 변화의 선점이 중요하다. 한국에게 아직 남은 기회가 있다면 이 부분이 될 것이다. 원래는 일본이 민-관 합동으로 이 영역까지 다 가져가고 싶어했을 것이지만, 일본은 이러한 모멘텀을 투입하기에는 이미 관련 산업이 많이 쇠퇴한 상황이라 모든 산업을 다 미국에 대해 소구하기는 어려울 것이다.
어쨌든 트럼프 2기는 불과 4년 밖에 안 되지만, 지금까지 목도했던 AI의 발전 속도, 그리고 심지어는 이제 AGI로 확장되어 분명하게 모멘텀이 생겨버린 급속도의 변혁 상황에서는, 그 4년은 과거 트럼프 1기의 4년과는 전혀 다른 고밀도의 시간이 될 것이다. 하루하루가 정말 다이내믹할 것이고, 트럼프의 말 한 마디, 스타게이트의 다음 투자 방향 발표 장표 하나, 관련 기업들의 기술 개발 방향 언급 몇 마디 등에 의해 세계의 AI+IT+반도체 시장은 쓰나미를 지속적으로 겪게 될 것이다. 정신 차리고 이 변화를 따라잡아야 하는 것은 물론, 가능하다면 변화의 앞 부분에서 그 방향을 미리 캐치할 수 있어야 한다. 한국 기업들은 지금이라도 이 프로젝트의 진의를 파악하고 투자 참여 규모를 고려해야 할 것이고, 그 서비스의 공급 대상이 어디까지인지도 파악하여 기술경제안보적 맥락을 제대로 파악해야 할 것이다. 중국이 주도하는 AI, AGI 생태계가 대항마로 성립하는 것을 막을 수 없을 것이고, TSMC는 전략적으로 해외 팹 계획을 수정하게 되겠지만, 그 과정에서 글로벌 파운드리 공급망에 공백이 생기는 지점이 반드시 발생할 것이며, AGI 하드웨어 밸류체인의 연속성을 위하여 한국 기업들에게 어떤 기회가 생기는지 더 깊숙하게 들여다보고 챙겨야 할 것이다. 한국에 보존된 기존 중요 제조업 각 도메인의 데이터를 더욱 기민하고 전략적으로 관리하며, 관련한 프로젝트를 정부가 지금이라도 발빠르게 구성하고 미국에 제안할 수 있어야 할 것이다. 아마도 한국은 올해 상반기에 대선을 급하게 치르게 될 것이지만, 누가 다음 대통령이 되든, 가장 최우선 대외 정책으로서 트럼프 미국 정부가 주도하는 AI, AGI 산업의 급격한 변동 방향이 갖는 의미를 제대로 파악하고, 한국이 핵심 플레이어에서 밀려나는 일을 다각도에 방지하는 전략을 수립할 수 있어야 한다. 충분한 자금은 물론이고, 기술적으로 한국이 대체 불가능한 지점을 찾아 포석을 만들어 두어야 한다. 이미 많이 늦었지만, 더 만시지탄 하기 전에, 지금부터 물밑에서 움직이기 시작해야 한다.
❤3👍3🔥2
https://youtu.be/yMGGpMyW_vw?list=PLOhHNjZItNnMm5tdW61JpnyxeYH5NDDx8
3. 휴머노이드 로봇에 집중하는 이유
환경 적합성:
세상이 인간 신체 스펙(양팔, 다리, 오포저블 썸(손가락), 신장 등)에 맞춰 설계됨.
공장·식당·병원 등 대부분의 ‘도구와 작업 환경’이 인간 형태에 최적화되어 있음.
인터넷 데이터와의 궁합:
인간이 등장하는 동영상·튜토리얼(매뉴얼)·설명서 등 인터넷에 축적된 방대한 데이터들이 대부분 “인간의 신체를 기준으로 한” 상호작용을 보여줌.
로봇 형태가 인간과 유사할수록 이런 데이터를 그대로 학습하기가 수월.
하드웨어 발전 & 가격 하락:
최근 1~2년 새 휴머노이드 로봇 스타트업 및 대형 기업(테슬라, 보스턴 다이내믹스, 중국 업체 등) 등장.
제조 단가가 크게 낮아지는 추세. 과거 백만 달러가 넘던 NASA 휴머노이드 로봇 대비, 이제 3만 달러 수준으로도 만들 수 있다는 움직임.
4. 로봇용 ‘파운데이션 모델’의 필요성과 데이터 전략
LLM(언어 모델)에 비유:
과거 NLP는 번역용, 질문응답용 등 ‘특수 목적 모델’이 다수 존재했으나, GPT-3 같은 ‘범용(Generalist) 파운데이션 모델’이 등장하자, 원하는 작업에 ‘프롬프트/파인튜닝’만 하면 강력해짐.
로보틱스도 궁극적으로 이와 유사한 전개가 필요하다고 봄(“전문화된 로봇 모델” vs. “범용 파운데이션 로봇 모델”).
로봇 훈련 데이터의 세 가지 출처:
인터넷(온라인) 동영상·튜토리얼: 행동(action) 정보는 부족하지만, 물체나 인간 상호작용에 대한 ‘공통 상식(common sense)’ 파악에 유리.
시뮬레이션: 무제한적으로 ‘행동 데이터’를 만들 수 있음(Isaac Sim 등) + 병렬 및 가속(10,000배 속도) 가능. 단, ‘SIM-Real Gap’(물리/시각 차이) 존재.
실로봇(Real robot) 직접 조작: 현실 데이터를 얻을 수 있지만, 비용이 매우 크고 시간 한계가 있음(24시간/인력 필요).
결국 혼합 전략으로 세 가지를 결합하여 규모와 품질을 모두 확보해야 함.
5. 대표 연구 사례
우레카(Eureka)
LLM이 RL(강화학습) 에이전트를 훈련하기 위한 보상함수(reward function) 코드를 작성하게 함.
예: 5 손가락 로봇손으로 펜을 능숙히 돌리는 ‘펜 스피닝’ 학습.
로봇 전문가가 일일이 보상 함수를 설계하지 않고, LLM이 시뮬레이션 API(Isaac Sim)를 이용해 자동으로 설계한다.
이 결과 “사람보다 더 펜을 잘 돌리는” 로봇 손 등장.
DR 우레카(Dr Eureka)
‘도메인 랜덤화(Domain Randomization)’로 수많은 물리 파라미터의 시뮬레이션을 병렬 훈련.
학습 후 실제 로봇에 그대로 적용해도 간극이 비교적 작아 “0회 파인튜닝(Zero-shot)”에 가깝게 동작.
예: 로봇 강아지가 요가볼 위에서 중심 잡고 걷기(일반 강아지는 잘 못한다는 에피소드).
6. 게임(가상 세계) 연구와 로보틱스의 교차점
짐은 ‘임바디드 AI’가 가상환경/물리환경 모두에서 동일 원리를 가진다고 강조:
입력: 시각(픽셀 등) + 기타 센서 / 출력: 행동
게임 속 NPC나 플레이어젠트도 일종의 로보틱스 문제(‘시뮬레이션에 사는 에이전트’)로 볼 수 있음.
Minecraft 사례:
MindDojo: 마인크래프트 내 여러 행동을 위해 인터넷의 포럼·위키·동영상에서 데이터를 모아 학습.
Voyager: GPT-4같은 코드 작성 능력을 쓰면, 게임 환경을 직접 코드로 조작하며 자동으로 ‘스킬 라이브러리(skill library)’를 축적.
자기 반성(self-reflection)을 거쳐 코드를 수정 → 에이전트가 점차 문제 해결 능력 확장.
이후 축적된 스킬들을 재사용해 오픈월드에서 무한히 탐험.
7. 미래 전망 및 조언
왜 지금 ‘로보틱스의 모멘텀’인가?
하드웨어 성숙: 새롭고 저렴·정교한 로봇 하드웨어 확산(휴머노이드 포함).
LLM 기반 코딩·추론·문해력: 시스템2 수준의 계획(Planning), 이유(Reasoning) 능력이 폭발적으로 개선.
시뮬레이션 툴 + 텔레오퍼레이션: 대규모 데이터 수집이 가능해지고, Sim2Real 전환 역량 향상.
장기 전망(10년 이상):
(코드) “인간 수준 소프트웨어 엔지니어” 에이전트 출현 → 개발 대폭 가속.
(로봇) 사람과 비슷하거나 더 뛰어난 휴머노이드가 집안/산업 등에서 일상화.
게임 분야:
NPC AI가 완전히 살아있는 존재처럼 플레이어와 대화하고 협업·반응하는 게임 설계 가능.
절차적 세계 생성(비주얼·스토리·퀘스트 등)을 AI가 실시간으로 창출 → 무한 재플레이.
Founder들에게 조언:
“좋은 연구 문제”나 “장기적으로 큰 영향력을 낼 문제”를 골라라(연구 적합성, 경제 가치 등).
새로 나오는 오픈소스 툴(시뮬레이션, 데이터셋, 모델 등)을 적극 활용.
엔비디아의 Isaac Sim 같은 시뮬레이터나 오픈소스 모델을 빠르게 실험·검증하며 실행력을 높여라.
3. 휴머노이드 로봇에 집중하는 이유
환경 적합성:
세상이 인간 신체 스펙(양팔, 다리, 오포저블 썸(손가락), 신장 등)에 맞춰 설계됨.
공장·식당·병원 등 대부분의 ‘도구와 작업 환경’이 인간 형태에 최적화되어 있음.
인터넷 데이터와의 궁합:
인간이 등장하는 동영상·튜토리얼(매뉴얼)·설명서 등 인터넷에 축적된 방대한 데이터들이 대부분 “인간의 신체를 기준으로 한” 상호작용을 보여줌.
로봇 형태가 인간과 유사할수록 이런 데이터를 그대로 학습하기가 수월.
하드웨어 발전 & 가격 하락:
최근 1~2년 새 휴머노이드 로봇 스타트업 및 대형 기업(테슬라, 보스턴 다이내믹스, 중국 업체 등) 등장.
제조 단가가 크게 낮아지는 추세. 과거 백만 달러가 넘던 NASA 휴머노이드 로봇 대비, 이제 3만 달러 수준으로도 만들 수 있다는 움직임.
4. 로봇용 ‘파운데이션 모델’의 필요성과 데이터 전략
LLM(언어 모델)에 비유:
과거 NLP는 번역용, 질문응답용 등 ‘특수 목적 모델’이 다수 존재했으나, GPT-3 같은 ‘범용(Generalist) 파운데이션 모델’이 등장하자, 원하는 작업에 ‘프롬프트/파인튜닝’만 하면 강력해짐.
로보틱스도 궁극적으로 이와 유사한 전개가 필요하다고 봄(“전문화된 로봇 모델” vs. “범용 파운데이션 로봇 모델”).
로봇 훈련 데이터의 세 가지 출처:
인터넷(온라인) 동영상·튜토리얼: 행동(action) 정보는 부족하지만, 물체나 인간 상호작용에 대한 ‘공통 상식(common sense)’ 파악에 유리.
시뮬레이션: 무제한적으로 ‘행동 데이터’를 만들 수 있음(Isaac Sim 등) + 병렬 및 가속(10,000배 속도) 가능. 단, ‘SIM-Real Gap’(물리/시각 차이) 존재.
실로봇(Real robot) 직접 조작: 현실 데이터를 얻을 수 있지만, 비용이 매우 크고 시간 한계가 있음(24시간/인력 필요).
결국 혼합 전략으로 세 가지를 결합하여 규모와 품질을 모두 확보해야 함.
5. 대표 연구 사례
우레카(Eureka)
LLM이 RL(강화학습) 에이전트를 훈련하기 위한 보상함수(reward function) 코드를 작성하게 함.
예: 5 손가락 로봇손으로 펜을 능숙히 돌리는 ‘펜 스피닝’ 학습.
로봇 전문가가 일일이 보상 함수를 설계하지 않고, LLM이 시뮬레이션 API(Isaac Sim)를 이용해 자동으로 설계한다.
이 결과 “사람보다 더 펜을 잘 돌리는” 로봇 손 등장.
DR 우레카(Dr Eureka)
‘도메인 랜덤화(Domain Randomization)’로 수많은 물리 파라미터의 시뮬레이션을 병렬 훈련.
학습 후 실제 로봇에 그대로 적용해도 간극이 비교적 작아 “0회 파인튜닝(Zero-shot)”에 가깝게 동작.
예: 로봇 강아지가 요가볼 위에서 중심 잡고 걷기(일반 강아지는 잘 못한다는 에피소드).
6. 게임(가상 세계) 연구와 로보틱스의 교차점
짐은 ‘임바디드 AI’가 가상환경/물리환경 모두에서 동일 원리를 가진다고 강조:
입력: 시각(픽셀 등) + 기타 센서 / 출력: 행동
게임 속 NPC나 플레이어젠트도 일종의 로보틱스 문제(‘시뮬레이션에 사는 에이전트’)로 볼 수 있음.
Minecraft 사례:
MindDojo: 마인크래프트 내 여러 행동을 위해 인터넷의 포럼·위키·동영상에서 데이터를 모아 학습.
Voyager: GPT-4같은 코드 작성 능력을 쓰면, 게임 환경을 직접 코드로 조작하며 자동으로 ‘스킬 라이브러리(skill library)’를 축적.
자기 반성(self-reflection)을 거쳐 코드를 수정 → 에이전트가 점차 문제 해결 능력 확장.
이후 축적된 스킬들을 재사용해 오픈월드에서 무한히 탐험.
7. 미래 전망 및 조언
왜 지금 ‘로보틱스의 모멘텀’인가?
하드웨어 성숙: 새롭고 저렴·정교한 로봇 하드웨어 확산(휴머노이드 포함).
LLM 기반 코딩·추론·문해력: 시스템2 수준의 계획(Planning), 이유(Reasoning) 능력이 폭발적으로 개선.
시뮬레이션 툴 + 텔레오퍼레이션: 대규모 데이터 수집이 가능해지고, Sim2Real 전환 역량 향상.
장기 전망(10년 이상):
(코드) “인간 수준 소프트웨어 엔지니어” 에이전트 출현 → 개발 대폭 가속.
(로봇) 사람과 비슷하거나 더 뛰어난 휴머노이드가 집안/산업 등에서 일상화.
게임 분야:
NPC AI가 완전히 살아있는 존재처럼 플레이어와 대화하고 협업·반응하는 게임 설계 가능.
절차적 세계 생성(비주얼·스토리·퀘스트 등)을 AI가 실시간으로 창출 → 무한 재플레이.
Founder들에게 조언:
“좋은 연구 문제”나 “장기적으로 큰 영향력을 낼 문제”를 골라라(연구 적합성, 경제 가치 등).
새로 나오는 오픈소스 툴(시뮬레이션, 데이터셋, 모델 등)을 적극 활용.
엔비디아의 Isaac Sim 같은 시뮬레이터나 오픈소스 모델을 빠르게 실험·검증하며 실행력을 높여라.
👍2
https://youtu.be/nOyOtxTA03A
단일 거대모델(One Model to Rule Them All)은 없다
2023년 초, ChatGPT(주로 GPT-3.5) 등장 시점에도 ‘곧 모든 사용자가 단일 거대모델에 몰릴 것’이라는 관측이 많았음.
그러나 Dust 공동창업자들은 “엔터프라이즈 규모의 실제 문제를 풀려면 다양한 모델이 공존해야 한다”고 판단.
사용 사례마다 필요로 하는 성능·추론 시간·데이터 보안 수준이 달라, 어떤 경우엔 로컬 모델, 어떤 경우엔 대형 API 모델이 유리할 수 있음.
모델 자체보다는 ‘제품 경험’과 ‘워크플로우’가 관건
LLM의 추론/생성 품질이 계속 개선되더라도, 기업 내 실제 도입 과정(접근제어, 보안, 협업 방식, 맞춤형 데이터 연계)을 해결하려면 ‘제품적 통합’이 훨씬 중요.
“No GPUs before PMF(제품-시장 궁합)” → 대규모 모델을 직접 학습하기(즉, 자체 GPU 인프라를 돌려 거대모델 훈련)를 시도하기보다는, 우선 제품으로서 사용자 가치를 검증하는 것이 급선무.
2.1 멀티모델 시대
엔터프라이즈 상황에서는 여러 모델을 자유롭게 전환/결합해야 할 필요가 큼.
예: 민감 데이터 → 로컬 모델 / 빠른 요약 → 소형 모델 / 고난도 추론 → API 기반 초거대모델.
Dust 플랫폼은 “모델 라우팅(hypervisor)”을 완전히 감추기보다, 사용자가 어떤 모델을 쓸지 자율적으로 결정·실험할 수 있게 제공.
오픈소스 vs. 폐쇄형:
대형 폐쇄형 모델(OpenAI, Anthropic 등)이 당분간 성능 우위를 가질 가능성은 큼.
다만, 특정 시점에 기술적 ‘플래토(plateau)’가 오거나, Meta 등에서 초거대 오픈소스 모델이 등장하면, 오픈소스 모델이 역전할 시나리오도 배제할 수 없음.
Dust가 제공하는 ‘샌드박스 + 멀티모델 + 문맥연결’ 개념
샌드박스:
- 회사 내부 구성원이 원하는 대로 AI 어시스턴트를 만들고 공유할 수 있는 가벼운 빌딩 환경을 제공.
- 이때 RAG(Retrieval-Augmented Generation), 문서·DB·사내툴과 연동한 다양한 워크플로우를 “레고 블록”처럼 쉽게 조합 가능.
협업 확산 패턴:
- 보통 한두 팀에서 파일럿→ 점진적 확대 → 회사 전체로 폭발적 확산.
- 개인(특히 25세 이하 젊은 직원)들이 소규모 봇(assistant)을 만들고, 동료들과 공유하며 자발적으로 확산되는 경향이 강함.
두 번째 창업자로서의 교훈
1) 몇 가지 ‘폭발적 베팅’을 찾고 실험
초창기에 너무 사소한 최적화 대신, 정말 큰 가치를 만들 만한 시도를 과감히 반복하는 것이 중요.
2) 제품·시장 궁합(PMF)을 찾기 전까지는 무리한 인프라(예: 대규모 GPU 투자) 안 한다
거대모델 자체를 만드는 것보다, 고객이 정말 원하는 ‘사용 시나리오’ 파악에 집중.
3) 팀원에게 강한 ‘투명성 & 권한 위임(임파워먼트)’
과거 첫 창업 때보다 “의사결정 과정 종합 정리(Paper Trail)” 등을 문화화해 더 효율적 협업.
“인간 대체”보다 “인간 증강”을 믿는다
Dust 창업자들은 단순히 비용 절감(사람을 해고)보다는, 사람들이 이전에는 못했던 고부가가치 일을 하게 하거나, ‘놓치던 기회’를 발굴하는 데 더 집중해야 한다고 강조.
“지원 티켓을 100% 자동화”하는 식으로는 장기적으로 해가 될 수 있음(고객의 불만사항 흐름 자체가 사라지면, 제품 개선 기회를 놓칠 수 있음).
프랑스 스타트업 생태계에 대한 관점
Dust는 본사가 파리에 있으나, 글로벌 고객을 대상.
프랑스의 뛰어난 AI 인재풀(수학·엔지니어링 역량)과 대형 스케일업(Stripe, Datadog, Algolia 등) 출신들의 경험이 축적되어 좋은 생태계 조성.
다만 미국 시장 및 글로벌 진출을 고려해, 현지와의 상호 협력·네트워킹이 필수.
단일 거대모델(One Model to Rule Them All)은 없다
2023년 초, ChatGPT(주로 GPT-3.5) 등장 시점에도 ‘곧 모든 사용자가 단일 거대모델에 몰릴 것’이라는 관측이 많았음.
그러나 Dust 공동창업자들은 “엔터프라이즈 규모의 실제 문제를 풀려면 다양한 모델이 공존해야 한다”고 판단.
사용 사례마다 필요로 하는 성능·추론 시간·데이터 보안 수준이 달라, 어떤 경우엔 로컬 모델, 어떤 경우엔 대형 API 모델이 유리할 수 있음.
모델 자체보다는 ‘제품 경험’과 ‘워크플로우’가 관건
LLM의 추론/생성 품질이 계속 개선되더라도, 기업 내 실제 도입 과정(접근제어, 보안, 협업 방식, 맞춤형 데이터 연계)을 해결하려면 ‘제품적 통합’이 훨씬 중요.
“No GPUs before PMF(제품-시장 궁합)” → 대규모 모델을 직접 학습하기(즉, 자체 GPU 인프라를 돌려 거대모델 훈련)를 시도하기보다는, 우선 제품으로서 사용자 가치를 검증하는 것이 급선무.
2.1 멀티모델 시대
엔터프라이즈 상황에서는 여러 모델을 자유롭게 전환/결합해야 할 필요가 큼.
예: 민감 데이터 → 로컬 모델 / 빠른 요약 → 소형 모델 / 고난도 추론 → API 기반 초거대모델.
Dust 플랫폼은 “모델 라우팅(hypervisor)”을 완전히 감추기보다, 사용자가 어떤 모델을 쓸지 자율적으로 결정·실험할 수 있게 제공.
오픈소스 vs. 폐쇄형:
대형 폐쇄형 모델(OpenAI, Anthropic 등)이 당분간 성능 우위를 가질 가능성은 큼.
다만, 특정 시점에 기술적 ‘플래토(plateau)’가 오거나, Meta 등에서 초거대 오픈소스 모델이 등장하면, 오픈소스 모델이 역전할 시나리오도 배제할 수 없음.
Dust가 제공하는 ‘샌드박스 + 멀티모델 + 문맥연결’ 개념
샌드박스:
- 회사 내부 구성원이 원하는 대로 AI 어시스턴트를 만들고 공유할 수 있는 가벼운 빌딩 환경을 제공.
- 이때 RAG(Retrieval-Augmented Generation), 문서·DB·사내툴과 연동한 다양한 워크플로우를 “레고 블록”처럼 쉽게 조합 가능.
협업 확산 패턴:
- 보통 한두 팀에서 파일럿→ 점진적 확대 → 회사 전체로 폭발적 확산.
- 개인(특히 25세 이하 젊은 직원)들이 소규모 봇(assistant)을 만들고, 동료들과 공유하며 자발적으로 확산되는 경향이 강함.
두 번째 창업자로서의 교훈
1) 몇 가지 ‘폭발적 베팅’을 찾고 실험
초창기에 너무 사소한 최적화 대신, 정말 큰 가치를 만들 만한 시도를 과감히 반복하는 것이 중요.
2) 제품·시장 궁합(PMF)을 찾기 전까지는 무리한 인프라(예: 대규모 GPU 투자) 안 한다
거대모델 자체를 만드는 것보다, 고객이 정말 원하는 ‘사용 시나리오’ 파악에 집중.
3) 팀원에게 강한 ‘투명성 & 권한 위임(임파워먼트)’
과거 첫 창업 때보다 “의사결정 과정 종합 정리(Paper Trail)” 등을 문화화해 더 효율적 협업.
“인간 대체”보다 “인간 증강”을 믿는다
Dust 창업자들은 단순히 비용 절감(사람을 해고)보다는, 사람들이 이전에는 못했던 고부가가치 일을 하게 하거나, ‘놓치던 기회’를 발굴하는 데 더 집중해야 한다고 강조.
“지원 티켓을 100% 자동화”하는 식으로는 장기적으로 해가 될 수 있음(고객의 불만사항 흐름 자체가 사라지면, 제품 개선 기회를 놓칠 수 있음).
프랑스 스타트업 생태계에 대한 관점
Dust는 본사가 파리에 있으나, 글로벌 고객을 대상.
프랑스의 뛰어난 AI 인재풀(수학·엔지니어링 역량)과 대형 스케일업(Stripe, Datadog, Algolia 등) 출신들의 경험이 축적되어 좋은 생태계 조성.
다만 미국 시장 및 글로벌 진출을 고려해, 현지와의 상호 협력·네트워킹이 필수.
❤1👍1
https://youtu.be/XJsHIoIDhPY
1) 딥러닝의 효율적 방식과 “확장(스케일업) + 통계” 접근
(1) 딥러닝의 효율적 방식이란?
전통적인 “기호적 AI”나 “규칙 기반(If-Then)” 접근은, 사람이 직접 규칙을 만들어줘야 했음.
반면 딥러닝은 모델에 대규모 데이터를 넣고, 모델이 파라미터(가중치)를 스스로 학습하여 규칙을 ‘추론’한다.
이 과정에서 필요한 것은 대규모 데이터, 대규모 계산(컴퓨팅), 효율적인 모델 구조(예: 합성곱 신경망, 트랜스포머 등).
(2) 스케일 업(scaling)이 중요한 이유
스케일 업이란 모델의 크기(파라미터 수), 학습 데이터 양, 학습에 쓸 컴퓨팅 자원 등을 단순히 늘리는 것을 의미.
2012년 무렵부터 GPU와 대규모 데이터셋이 결합되면서, 딥러닝이 기존 접근(기호적 AI 등)을 압도하는 성능을 내기 시작.
중요 포인트: “규모를 늘리면(dB)을수록 성능이 개선될 여지”가 크다는 사실. 예컨대 트랜스포머 계열 모델(GPT, Claude 등)은 파라미터·데이터를 확장할수록, 언어 이해·생성 능력이 급상승해 왔다.
스케일링이 의미 있는 이유는, “설계자가 일일이 손대지 않아도”, 단순히 모델 용량과 데이터만 늘리면 성능이 꾸준히 향상되는 ‘스케일링 법칙(scaling law)’이 관찰되었기 때문.
(3) ‘물리학의 통계역학적 관점’과의 연결
Dan이 말하는 “통계역학적 관점”은, 미시적 요소들이 무수히 많을 때, 거시적으로 단순한 법칙이 드러난다는 물리학 법칙(예: 이상기체법칙 등)을 일컫는다.
딥러닝도 마찬가지로, 수많은 파라미터(가중치)와 뉴런이 미시적으로 복잡하게 얽혀 있지만, 대규모로 스케일업했을 때 어떤 간단한 통계적 거동(예: 일정한 손실 하락 추세, 성능 곡선)이 나타난다.
물리학자는 이러한 “큰 규모에서의 단순함”을 이해하고 모델링하는 데 익숙하므로, 대규모 신경망(딥러닝)에도 똑같은 사고를 적용할 수 있다는 것.
2) 단일 대규모 모델 vs. 전문 분야별 모델
(1) 현재 트렌드: ‘하나의 범용 초대규모 모델’
구글, OpenAI, Meta 등 빅테크들은 “하나의 거대한 언어모델(GPT, PaLM, Llama 등)”이 모든 언어 업무를 잘 처리할 수 있다는 믿음/실험을 계속해 왔다.
장점:
여러 분야별 모델을 각각 만드는 것보다, 하나의 범용 모델을 잘 키워놓으면 다양한 태스크에 조금씩 튜닝해서 쓸 수 있음.
데이터 공유나 학습 인프라 측면에서 “규모의 경제” 발생.
(2) 하지만 자원·경제성 한계 가능
크기가 커질수록 훈련 비용, 추론 비용, 전력 소모가 폭발적으로 증가.
“무작정 모델 크기를 늘리다가, 경제적으로/물리적으로 감당 안 되는 지점”이 온다는 우려가 존재.
예를 들어, GPT-4보다 훨씬 큰 모델을 만들려면 천문학적인 GPU 클러스터, 전력, 시간 등이 필요해질 수 있음.
(3) 완전히 도메인별 모델로 쪼개지는 것은 보장되지 않음
“초대형 범용 모델”과 반대로, 각 도메인(의학, 법률, 금융 등)에 최적화된 “전문 모델”을 만들자는 시각도 있음.
그러나 전문 모델만 만들 경우, 매 도메인마다 데이터, 튜닝, 유지보수가 분산되어 비효율이 커질 수 있음.
실제로는 두 접근이 어떻게 융합될지 아직 불명확.
예) 하나의 큰 범용 모델+필요 시 도메인별 추가 모듈(혹은 하위 모델)을 혼합하는 ‘Mixture of Experts’ 구상, 혹은 API로 서로 협업하는 구조 등등.
3) AI 미래 전망 (단기 ~ 장기)
Dan의 입장에서, AI가 어떤 경로를 갈지 확실하진 않지만, 다음과 같은 시나리오를 언급:
(1) 단기 (약 5개월 정도)
GPT-n 차세대 모델: 예컨대 GPT-5, GPT-4.5 혹은 다른 회사 모델이 나올 가능성.
이 때 **“스케일링을 더 밀어붙일 경우, 어느 정도 성능 향상”**이 발생하는지 체감하게 될 것.
만약 이전 GPT에서 다음 GPT로 성능이 크게 달라진다면, “스케일링 아직 여력 있다”는 결론이 가능.
반면 향상이 미미하다면, “스케일링 한계가 이미 도래했나?”라는 질문 발생.
(2) 중기 (약 5년)
스케일 업에 경제적/물리적 한계가 찾아올 수도.
“너무 비용이 커서 못 키운다” → AI 윈터(투자·열기 식는 현상) 가능성.
반대로, 새로운 아이디어(예: 새로운 학습 패러다임, 아키텍처, 메모리·추론 방식 등)가 등장해 “또 다른 도약”을 이룰 수도.
결국 이 시기에는 “스케일링 지속 vs. 새 아이디어·기술 전환” 갈림길이 관건.
(3) 장기 (수십 년)
여러 가지 가능성이 공존:
AI가 모든 것을 바꾸는 시나리오: 인간 노동 대체, 지적 발견 가속, 경제 체계 재편 등.
새로운 패러다임 등장: “AI는 한계에 부딪히고 완전히 다른 컴퓨팅/모델 방식”이 대두될 수도.
“정확히 어떤 방향으로 갈지는 매우 예측하기 어렵다”며 Dan 본인도 신중한 태도를 유지.
1) 딥러닝의 효율적 방식과 “확장(스케일업) + 통계” 접근
(1) 딥러닝의 효율적 방식이란?
전통적인 “기호적 AI”나 “규칙 기반(If-Then)” 접근은, 사람이 직접 규칙을 만들어줘야 했음.
반면 딥러닝은 모델에 대규모 데이터를 넣고, 모델이 파라미터(가중치)를 스스로 학습하여 규칙을 ‘추론’한다.
이 과정에서 필요한 것은 대규모 데이터, 대규모 계산(컴퓨팅), 효율적인 모델 구조(예: 합성곱 신경망, 트랜스포머 등).
(2) 스케일 업(scaling)이 중요한 이유
스케일 업이란 모델의 크기(파라미터 수), 학습 데이터 양, 학습에 쓸 컴퓨팅 자원 등을 단순히 늘리는 것을 의미.
2012년 무렵부터 GPU와 대규모 데이터셋이 결합되면서, 딥러닝이 기존 접근(기호적 AI 등)을 압도하는 성능을 내기 시작.
중요 포인트: “규모를 늘리면(dB)을수록 성능이 개선될 여지”가 크다는 사실. 예컨대 트랜스포머 계열 모델(GPT, Claude 등)은 파라미터·데이터를 확장할수록, 언어 이해·생성 능력이 급상승해 왔다.
스케일링이 의미 있는 이유는, “설계자가 일일이 손대지 않아도”, 단순히 모델 용량과 데이터만 늘리면 성능이 꾸준히 향상되는 ‘스케일링 법칙(scaling law)’이 관찰되었기 때문.
(3) ‘물리학의 통계역학적 관점’과의 연결
Dan이 말하는 “통계역학적 관점”은, 미시적 요소들이 무수히 많을 때, 거시적으로 단순한 법칙이 드러난다는 물리학 법칙(예: 이상기체법칙 등)을 일컫는다.
딥러닝도 마찬가지로, 수많은 파라미터(가중치)와 뉴런이 미시적으로 복잡하게 얽혀 있지만, 대규모로 스케일업했을 때 어떤 간단한 통계적 거동(예: 일정한 손실 하락 추세, 성능 곡선)이 나타난다.
물리학자는 이러한 “큰 규모에서의 단순함”을 이해하고 모델링하는 데 익숙하므로, 대규모 신경망(딥러닝)에도 똑같은 사고를 적용할 수 있다는 것.
2) 단일 대규모 모델 vs. 전문 분야별 모델
(1) 현재 트렌드: ‘하나의 범용 초대규모 모델’
구글, OpenAI, Meta 등 빅테크들은 “하나의 거대한 언어모델(GPT, PaLM, Llama 등)”이 모든 언어 업무를 잘 처리할 수 있다는 믿음/실험을 계속해 왔다.
장점:
여러 분야별 모델을 각각 만드는 것보다, 하나의 범용 모델을 잘 키워놓으면 다양한 태스크에 조금씩 튜닝해서 쓸 수 있음.
데이터 공유나 학습 인프라 측면에서 “규모의 경제” 발생.
(2) 하지만 자원·경제성 한계 가능
크기가 커질수록 훈련 비용, 추론 비용, 전력 소모가 폭발적으로 증가.
“무작정 모델 크기를 늘리다가, 경제적으로/물리적으로 감당 안 되는 지점”이 온다는 우려가 존재.
예를 들어, GPT-4보다 훨씬 큰 모델을 만들려면 천문학적인 GPU 클러스터, 전력, 시간 등이 필요해질 수 있음.
(3) 완전히 도메인별 모델로 쪼개지는 것은 보장되지 않음
“초대형 범용 모델”과 반대로, 각 도메인(의학, 법률, 금융 등)에 최적화된 “전문 모델”을 만들자는 시각도 있음.
그러나 전문 모델만 만들 경우, 매 도메인마다 데이터, 튜닝, 유지보수가 분산되어 비효율이 커질 수 있음.
실제로는 두 접근이 어떻게 융합될지 아직 불명확.
예) 하나의 큰 범용 모델+필요 시 도메인별 추가 모듈(혹은 하위 모델)을 혼합하는 ‘Mixture of Experts’ 구상, 혹은 API로 서로 협업하는 구조 등등.
3) AI 미래 전망 (단기 ~ 장기)
Dan의 입장에서, AI가 어떤 경로를 갈지 확실하진 않지만, 다음과 같은 시나리오를 언급:
(1) 단기 (약 5개월 정도)
GPT-n 차세대 모델: 예컨대 GPT-5, GPT-4.5 혹은 다른 회사 모델이 나올 가능성.
이 때 **“스케일링을 더 밀어붙일 경우, 어느 정도 성능 향상”**이 발생하는지 체감하게 될 것.
만약 이전 GPT에서 다음 GPT로 성능이 크게 달라진다면, “스케일링 아직 여력 있다”는 결론이 가능.
반면 향상이 미미하다면, “스케일링 한계가 이미 도래했나?”라는 질문 발생.
(2) 중기 (약 5년)
스케일 업에 경제적/물리적 한계가 찾아올 수도.
“너무 비용이 커서 못 키운다” → AI 윈터(투자·열기 식는 현상) 가능성.
반대로, 새로운 아이디어(예: 새로운 학습 패러다임, 아키텍처, 메모리·추론 방식 등)가 등장해 “또 다른 도약”을 이룰 수도.
결국 이 시기에는 “스케일링 지속 vs. 새 아이디어·기술 전환” 갈림길이 관건.
(3) 장기 (수십 년)
여러 가지 가능성이 공존:
AI가 모든 것을 바꾸는 시나리오: 인간 노동 대체, 지적 발견 가속, 경제 체계 재편 등.
새로운 패러다임 등장: “AI는 한계에 부딪히고 완전히 다른 컴퓨팅/모델 방식”이 대두될 수도.
“정확히 어떤 방향으로 갈지는 매우 예측하기 어렵다”며 Dan 본인도 신중한 태도를 유지.
👍2