Forwarded from M&A WATCH(deal, news)
에너지와 김의 만남.
신선하다 또는 낯설다.
———
‘독도 김’으로 알려진 국내 빅3 김 제조사 중 하나인 성경식품이 종합에너지기업인 삼천리를 새 주인으로 맞는다. 국내 사모펀드(PEF) 운용사 어펄마캐피탈은 성경식품을 인수한 지 7년 만에 매출을 두 배 가량으로 늘리며 수출 기업으로 기업가치를 높여 성공적으로 엑시트 할 전망이다.
https://n.news.naver.com/mnews/article/011/0004407144
신선하다 또는 낯설다.
———
‘독도 김’으로 알려진 국내 빅3 김 제조사 중 하나인 성경식품이 종합에너지기업인 삼천리를 새 주인으로 맞는다. 국내 사모펀드(PEF) 운용사 어펄마캐피탈은 성경식품을 인수한 지 7년 만에 매출을 두 배 가량으로 늘리며 수출 기업으로 기업가치를 높여 성공적으로 엑시트 할 전망이다.
https://n.news.naver.com/mnews/article/011/0004407144
Naver
[단독] 삼천리, '독도 김' 성경식품 인수하나 [시그널]
이 기사는 2024년 10월 25일 14:48 자본시장 나침반 '시그널(Signal)' 에 표출됐습니다. ‘독도 김’으로 알려진 국내 빅3 김 제조사 중 하나인 성경식품이 종합에너지기업인 삼천리를 새 주인으로 맞을
도전하는 인생을 사는 분들의 특징
창업이던, 커리어던, 도전을 멈추지 말아야 한다고 생각한다. 도전을 멈추는 순간 평범의 길로 접어든다고 생각한다.
항상 도전하며 사는 사람들의 특징은 아래와 같다고 생각한다.
1. 객관식이 아닌, 주관식으로 인생을 설계한다. 내가 선택할 수 있는 더 나은 커리어의 보기를 찾기 보다는, 1) 내가 원하는 성장을 정의하고 2) 그 정의에 부합하는 여정을 만들어 나가기 위한 과정을 주변 사람들과 끊임없이 대화하며 설계해 나가야 한다. 커리어/인생을 주관식으로 설계해야, 그 과정에서 '도전'을 할 수 있다.
2. 주변을 활용해야 한다. 도전은 혼자 고민하고 혼자 실행해서 할 수 있는 것이 아니다. 혼자 고민하면 염려가 쌓이게 되는데, 염려는 도전을 방해하는 요소로 작용한다. 좋은 친구/동료/선배/멘토가 있다면, 주기적으로 내 고민을 터놓고 이야기 할 필요가 있다. 그들이 답을 준다기 보다는, 그들과 대화하는 과정에서 나 스스로 답을 발견할 가능성이 크다. 참고로 좋은 친구/동료/선배/멘토의 정의는... '적당히 살아도 되니까 좀 즐겨~' 라고 이야기 해주는 사람이 아닌, 내가 더 깊이 들어갈 수 있도록 질문을 해주고, 경험담을 솔직히 share 해주고, 응원해주고 격려해주는 사람이다.
3. 주변에 같은 강도로 노력하는 동료들이 있다. 설령 서로 가는 길은 다를지언정, 꿈을 이루기 위해 지치지 않고, 끝까지 꾸준히 열심히 노력하는 사람들이 주위에 있다면, 때로는 자극을 받고 때로는 의지하며 결국 포기하지 않고 도전을 이어나갈 수 있다. 도전은 포기하지 않음에서 비롯되는데, 포기하지 않기 위해서는 함께할 수 있는 동료가 필요하다.
4. '안전한 길' 보다는 '맞는 길'을 가려고 한다. 그 과정에서 익숙함 보다는 새로움/낯섬/불편함을 선택한다. 상황을 & 주변을 바꾸려 하기 보다는, 나를 바꾸려고 한다. 그 과정에서 Risk를 줄여나가는 옵션을 선택하기 보다는, Risk 가 따라오되 내가 꿈꾸는 미래에 가까이 갈 수 있는 길을 선택한다.
5. 사람을 깊게 사귄다. 많이 만나는 것 보다는 제대로 만나는 것에 초점을 둔다. 그리고, 내 comfort zone 안에 있는 사람들만 만나기 보다는, 때로는 comfort zone 을 벗어난 사람들과의 교류를 피하지 않고, 오히려 즐기고, 그들의과 깊이있는 관계를 통해 comfort zone 을 넓혀나간다.
Ringle 유저 분들의 공통점 중 하나도, 1) 도전하는 인생을 살아가고 있거나, 2) 도전하는 인생을 살기 위해 노력하는 분들이라는 사실이다.
경기가 좋지 않은 시기일수록 (역풍이 부는 시기일수록), 불안정성이 높아지는 시기일수록, 돌파구를 찾는 것이 필요하다. 돌파구는 안전한 선택을 하는 데에서 찾아질 수 있다기 보다는, 과감을 선택을 하는 과정에서 찾을 수 있는 것이다.
많은 분들이 2024년 말 & 2025년에는 더 나은 삶, 더 나은 세상을 꿈꾸며 도전하는 인생을 살 수 있으면 좋겠다!
화이팅!
승훈님
창업이던, 커리어던, 도전을 멈추지 말아야 한다고 생각한다. 도전을 멈추는 순간 평범의 길로 접어든다고 생각한다.
항상 도전하며 사는 사람들의 특징은 아래와 같다고 생각한다.
1. 객관식이 아닌, 주관식으로 인생을 설계한다. 내가 선택할 수 있는 더 나은 커리어의 보기를 찾기 보다는, 1) 내가 원하는 성장을 정의하고 2) 그 정의에 부합하는 여정을 만들어 나가기 위한 과정을 주변 사람들과 끊임없이 대화하며 설계해 나가야 한다. 커리어/인생을 주관식으로 설계해야, 그 과정에서 '도전'을 할 수 있다.
2. 주변을 활용해야 한다. 도전은 혼자 고민하고 혼자 실행해서 할 수 있는 것이 아니다. 혼자 고민하면 염려가 쌓이게 되는데, 염려는 도전을 방해하는 요소로 작용한다. 좋은 친구/동료/선배/멘토가 있다면, 주기적으로 내 고민을 터놓고 이야기 할 필요가 있다. 그들이 답을 준다기 보다는, 그들과 대화하는 과정에서 나 스스로 답을 발견할 가능성이 크다. 참고로 좋은 친구/동료/선배/멘토의 정의는... '적당히 살아도 되니까 좀 즐겨~' 라고 이야기 해주는 사람이 아닌, 내가 더 깊이 들어갈 수 있도록 질문을 해주고, 경험담을 솔직히 share 해주고, 응원해주고 격려해주는 사람이다.
3. 주변에 같은 강도로 노력하는 동료들이 있다. 설령 서로 가는 길은 다를지언정, 꿈을 이루기 위해 지치지 않고, 끝까지 꾸준히 열심히 노력하는 사람들이 주위에 있다면, 때로는 자극을 받고 때로는 의지하며 결국 포기하지 않고 도전을 이어나갈 수 있다. 도전은 포기하지 않음에서 비롯되는데, 포기하지 않기 위해서는 함께할 수 있는 동료가 필요하다.
4. '안전한 길' 보다는 '맞는 길'을 가려고 한다. 그 과정에서 익숙함 보다는 새로움/낯섬/불편함을 선택한다. 상황을 & 주변을 바꾸려 하기 보다는, 나를 바꾸려고 한다. 그 과정에서 Risk를 줄여나가는 옵션을 선택하기 보다는, Risk 가 따라오되 내가 꿈꾸는 미래에 가까이 갈 수 있는 길을 선택한다.
5. 사람을 깊게 사귄다. 많이 만나는 것 보다는 제대로 만나는 것에 초점을 둔다. 그리고, 내 comfort zone 안에 있는 사람들만 만나기 보다는, 때로는 comfort zone 을 벗어난 사람들과의 교류를 피하지 않고, 오히려 즐기고, 그들의과 깊이있는 관계를 통해 comfort zone 을 넓혀나간다.
Ringle 유저 분들의 공통점 중 하나도, 1) 도전하는 인생을 살아가고 있거나, 2) 도전하는 인생을 살기 위해 노력하는 분들이라는 사실이다.
경기가 좋지 않은 시기일수록 (역풍이 부는 시기일수록), 불안정성이 높아지는 시기일수록, 돌파구를 찾는 것이 필요하다. 돌파구는 안전한 선택을 하는 데에서 찾아질 수 있다기 보다는, 과감을 선택을 하는 과정에서 찾을 수 있는 것이다.
많은 분들이 2024년 말 & 2025년에는 더 나은 삶, 더 나은 세상을 꿈꾸며 도전하는 인생을 살 수 있으면 좋겠다!
화이팅!
승훈님
❤5👍1😱1🤮1
당신의 인생은 당신의 경험의 총합이다—
김수미씨가 돌아가셨다. 75세밖에 안되셨다. 안타까운 마음이 가득했다.
동창 카톡방은 두 가지 소식이 대부분이다. "자녀결혼" "부모님 상"
생각없이 살다가도 죽음을 접하면 삶에 대해 다시금 생각하게 된다.
얼마전에 밀리의서재에서 "역전하는 법"이란 흥미로운 책을 한 권 읽었다. 저자는 일중독과 돈중독에 빠졌던 잘 나가는 헤지펀드 매니저였는데 일에치여 사망하는 주위 백만장자 동료들을 보고 삶에 대한 관점을 바꾼 사람이었다.
그는 이렇게 말한다.
"대부분의 사람들은 부자가 되려 애쓰는데 그것보다 부자로 사는 것이 더 중요하다. 당신의 인생은 당신의 경험의 총합이다.
왜 돈을 모으는가? 경험을 위해서이다. 죽음을 앞두면 남는 것은 경험뿐이다. 경험은 만료기한이 있다. 아이와 놀아주는 것은 자녀가 아이일때만 가능하다. 스키나 번지점프도 어떤 나이 이상이면 시도하기 어렵다. 당신이 미루면 평생 단 한번도 경험하지 못한채 죽는다.
돈의 효용성은 나이와 함께 감소한다. 나이들면 건강도 관심사도 감소한다. 건강할때 경험에 돈을 써라. 건강과 시간이 돈보다 중요하다."
그는 다음과 같은 몇가지 방안을 말했다.
1.인생에서 긍정적 경험을 최대한 늘려라
2.일찍부터 (물건보다) 경험에 투자하라
3.다 쓰고 죽기를 목표로 하라
4. 자동조정모드에 인생을 맡기지 마라
5. 경험마다 적절한때가있다
6. 재산증식을 멈출때를 파악하라
7. 죽고나서 기부하거나 상속할 생각하지말고 생전에 관대하게 베풀고 돈을써라
8. 지나치게 사치하지말고 그러나 지나치게 검소하지도 마라
9. 자녀에게도 경험의 추억을 주라. 자녀가 크면 그 경험만 기억한다.
10. 젊을수록 과감한 경험에 도전하고 모험하라.
물론, 생계자체가 어려운 분들에게 이러한 이야기는 배부른 이들의 낭만이라 할수 있을수 있다. 이 책의 저자는 이미 엄청난 부를 이루었기에 이런 말을 쉽게 할수 있다고 할수도 있다. 그럼에도 불구하고 특히 평생 경주마처럼 달리기만 하는 사람들에게 충분한 통찰이 있다.
다음과 같은 질문을 해보자.
당신이 누리고 싶은 인생 경험은 무엇인가?
누구와 함께 이 경험을 함께하고싶은가?"
그리고 지금 당장 하자!
신수정님
김수미씨가 돌아가셨다. 75세밖에 안되셨다. 안타까운 마음이 가득했다.
동창 카톡방은 두 가지 소식이 대부분이다. "자녀결혼" "부모님 상"
생각없이 살다가도 죽음을 접하면 삶에 대해 다시금 생각하게 된다.
얼마전에 밀리의서재에서 "역전하는 법"이란 흥미로운 책을 한 권 읽었다. 저자는 일중독과 돈중독에 빠졌던 잘 나가는 헤지펀드 매니저였는데 일에치여 사망하는 주위 백만장자 동료들을 보고 삶에 대한 관점을 바꾼 사람이었다.
그는 이렇게 말한다.
"대부분의 사람들은 부자가 되려 애쓰는데 그것보다 부자로 사는 것이 더 중요하다. 당신의 인생은 당신의 경험의 총합이다.
왜 돈을 모으는가? 경험을 위해서이다. 죽음을 앞두면 남는 것은 경험뿐이다. 경험은 만료기한이 있다. 아이와 놀아주는 것은 자녀가 아이일때만 가능하다. 스키나 번지점프도 어떤 나이 이상이면 시도하기 어렵다. 당신이 미루면 평생 단 한번도 경험하지 못한채 죽는다.
돈의 효용성은 나이와 함께 감소한다. 나이들면 건강도 관심사도 감소한다. 건강할때 경험에 돈을 써라. 건강과 시간이 돈보다 중요하다."
그는 다음과 같은 몇가지 방안을 말했다.
1.인생에서 긍정적 경험을 최대한 늘려라
2.일찍부터 (물건보다) 경험에 투자하라
3.다 쓰고 죽기를 목표로 하라
4. 자동조정모드에 인생을 맡기지 마라
5. 경험마다 적절한때가있다
6. 재산증식을 멈출때를 파악하라
7. 죽고나서 기부하거나 상속할 생각하지말고 생전에 관대하게 베풀고 돈을써라
8. 지나치게 사치하지말고 그러나 지나치게 검소하지도 마라
9. 자녀에게도 경험의 추억을 주라. 자녀가 크면 그 경험만 기억한다.
10. 젊을수록 과감한 경험에 도전하고 모험하라.
물론, 생계자체가 어려운 분들에게 이러한 이야기는 배부른 이들의 낭만이라 할수 있을수 있다. 이 책의 저자는 이미 엄청난 부를 이루었기에 이런 말을 쉽게 할수 있다고 할수도 있다. 그럼에도 불구하고 특히 평생 경주마처럼 달리기만 하는 사람들에게 충분한 통찰이 있다.
다음과 같은 질문을 해보자.
당신이 누리고 싶은 인생 경험은 무엇인가?
누구와 함께 이 경험을 함께하고싶은가?"
그리고 지금 당장 하자!
신수정님
❤12👍6💯1
늘 어딜가나 어떤 창업자를 선호 하는지 묻는데... tossfeed 에 잘 정리해놓은게 있어서 공유.
-- 하고자 하는 업과 관련해 누구보다 많이 알고 준비를 철저히 했다. 그리고 모르는 것은 모른다고 한다.
-- 회사 내외 분들로부터 존경을 받고 사람들이 같이 일하고 싶어 한다. 이것은 좋아하는 것과 다르다. 좋아한다고 꼭 같이 일하고 싶어 하지는 않는다.
-- 끊임없이 자기 발전을 한다. 아무리 좋은 학교를 나오고 스마트한 사람이라도 계속 발전하지 않는 사람에게는 실망한다.
-- 실패를 했다 해도 그 경험을 통해 무엇을 얻었는지 배우고, 또 실패 하는 것을 두려워하지 않는다. 그래서 어려운 결정을 피하지 않는다.
-- 거대한 꿈이 있다. 그러나 꿈과 현실을 혼동하지 않는다.
한킴
-- 하고자 하는 업과 관련해 누구보다 많이 알고 준비를 철저히 했다. 그리고 모르는 것은 모른다고 한다.
-- 회사 내외 분들로부터 존경을 받고 사람들이 같이 일하고 싶어 한다. 이것은 좋아하는 것과 다르다. 좋아한다고 꼭 같이 일하고 싶어 하지는 않는다.
-- 끊임없이 자기 발전을 한다. 아무리 좋은 학교를 나오고 스마트한 사람이라도 계속 발전하지 않는 사람에게는 실망한다.
-- 실패를 했다 해도 그 경험을 통해 무엇을 얻었는지 배우고, 또 실패 하는 것을 두려워하지 않는다. 그래서 어려운 결정을 피하지 않는다.
-- 거대한 꿈이 있다. 그러나 꿈과 현실을 혼동하지 않는다.
한킴
https://youtu.be/cdiD-9MMpb0?t=9383
10,000 시간의 의도적인 연습: "초보자들은 주로 '무엇을 해야 하는지'에 집중하는 경향이 있지만, 저는 '얼마나 많이 하는지'가 더 중요하다고 생각해요. 10,000시간의 노력을 쏟아야 해요. 어떤 일을 선택하는지는 그리 중요하지 않아요. 하다 보면 개선되고, 시행착오도 겪겠죠. 하지만 10,000시간 동안 의도적으로 노력한다면 결국 전문가가 될 겁니다."
매일의 습관 형성: "어떻게 하면 10,000시간에 도달할 수 있을지, 그 가능성을 최대화하는 메커니즘에 대해 생각해 보세요. 우리 같은 인간에게는 매일 실제로 일을 하는 습관을 형성하는 것이 필요합니다."
타인과의 비교가 아닌 자기 자신과의 비교: "사람들은 자주 다른 사람들과 비교하는데, 이건 매우 해로워요. 오직 과거의 자신과 비교하세요. 예를 들어, 1년 전의 나와 비교했을 때 지금의 나는 더 나아졌는가? 이것만이 올바른 사고 방식입니다."
'흉터 조직'으로서의 실수 수용: "틀린 방법으로 시간을 낭비하게 될 거예요. 결국은 그것이 옳지 않다는 걸 깨닫게 되겠죠. 시행착오를 통해 '흉터 조직'이 쌓이고, 그 다음에는 더 강해질 겁니다. 모든 실수가 헛된 일이 아니었던 겁니다."
학습 수단으로서의 가르침: "저는 가르치는 걸 사랑하진 않지만, 사람들이 행복해하는 걸 좋아해요. 그리고 가르칠 때 사람들이 행복해하죠. 가르침은 이해를 강화하는 방법이에요. 무언가를 누군가에게 설명하려면 지식의 빈틈을 발견하게 되거든요. 그래서 순전히 이타적인 활동은 아니에요—이건 배움의 한 방법입니다."
기술 선택의 단순화: "사람들은 주로 어떤 IDE를 사용해야 할지 같은 문제로 걱정하죠. 결국은 틀린 방식으로 시간을 낭비하게 될 겁니다. 하지만 시간이 지나면 알아내게 될 거예요."
AI의 추론 능력에 대해: "저에게 생각이나 추론이란 단순한 정보 처리와 일반화입니다. 현재의 신경망은 이미 이걸 하고 있다고 생각해요. 새로운 상황에서도 정보를 처리하여 올바른 답을 제시하고 있죠. 이는 단순한 룩업 테이블이 아니라 알고리즘을 학습한 결과입니다."
10,000 시간의 의도적인 연습: "초보자들은 주로 '무엇을 해야 하는지'에 집중하는 경향이 있지만, 저는 '얼마나 많이 하는지'가 더 중요하다고 생각해요. 10,000시간의 노력을 쏟아야 해요. 어떤 일을 선택하는지는 그리 중요하지 않아요. 하다 보면 개선되고, 시행착오도 겪겠죠. 하지만 10,000시간 동안 의도적으로 노력한다면 결국 전문가가 될 겁니다."
매일의 습관 형성: "어떻게 하면 10,000시간에 도달할 수 있을지, 그 가능성을 최대화하는 메커니즘에 대해 생각해 보세요. 우리 같은 인간에게는 매일 실제로 일을 하는 습관을 형성하는 것이 필요합니다."
타인과의 비교가 아닌 자기 자신과의 비교: "사람들은 자주 다른 사람들과 비교하는데, 이건 매우 해로워요. 오직 과거의 자신과 비교하세요. 예를 들어, 1년 전의 나와 비교했을 때 지금의 나는 더 나아졌는가? 이것만이 올바른 사고 방식입니다."
'흉터 조직'으로서의 실수 수용: "틀린 방법으로 시간을 낭비하게 될 거예요. 결국은 그것이 옳지 않다는 걸 깨닫게 되겠죠. 시행착오를 통해 '흉터 조직'이 쌓이고, 그 다음에는 더 강해질 겁니다. 모든 실수가 헛된 일이 아니었던 겁니다."
학습 수단으로서의 가르침: "저는 가르치는 걸 사랑하진 않지만, 사람들이 행복해하는 걸 좋아해요. 그리고 가르칠 때 사람들이 행복해하죠. 가르침은 이해를 강화하는 방법이에요. 무언가를 누군가에게 설명하려면 지식의 빈틈을 발견하게 되거든요. 그래서 순전히 이타적인 활동은 아니에요—이건 배움의 한 방법입니다."
기술 선택의 단순화: "사람들은 주로 어떤 IDE를 사용해야 할지 같은 문제로 걱정하죠. 결국은 틀린 방식으로 시간을 낭비하게 될 겁니다. 하지만 시간이 지나면 알아내게 될 거예요."
AI의 추론 능력에 대해: "저에게 생각이나 추론이란 단순한 정보 처리와 일반화입니다. 현재의 신경망은 이미 이걸 하고 있다고 생각해요. 새로운 상황에서도 정보를 처리하여 올바른 답을 제시하고 있죠. 이는 단순한 룩업 테이블이 아니라 알고리즘을 학습한 결과입니다."
YouTube
Andrej Karpathy: Tesla AI, Self-Driving, Optimus, Aliens, and AGI | Lex Fridman Podcast #333
Andrej Karpathy is a legendary AI researcher, engineer, and educator. He's the former director of AI at Tesla, a founding member of OpenAI, and an educator at Stanford. Please support this podcast by checking out our sponsors:
- Eight Sleep: https://www.…
- Eight Sleep: https://www.…
짐 콜린스, 빌 레지어의 ‘좋은 리더를 넘어 위대한 리더‘(1992년에 쓴 Beyond Entrepreneurship을 재간한)를 읽기 시작했는데 예상치 못한 문구를 처음부터 발견했다.
저자가 2007년 스티브 잡스와 알게되어 1997년 잡스가 애플에 복귀했을때 기울어가던 회사의 생존을 위해 첫번째로 구축했던 일을 물었다. 저자는 당연히 제품 비전에 대한 대가인 잡스가 ’미친듯이 위대한 제품‘ 아이디어를 설명할꺼라고 생각했다.
그러나 잡스는 사람을 들었다. 애플의 초창기에 세상을 바꾸어놓겠다고 했던 바로 그 비전을 여전히 뜨거운 가슴에 품고 있는 사람들. 자기는 그 열정을 가진 사람들을 찾아내는 것에서부터 애플 재건 작업을 시작했다고 말했다.
강준열님
저자가 2007년 스티브 잡스와 알게되어 1997년 잡스가 애플에 복귀했을때 기울어가던 회사의 생존을 위해 첫번째로 구축했던 일을 물었다. 저자는 당연히 제품 비전에 대한 대가인 잡스가 ’미친듯이 위대한 제품‘ 아이디어를 설명할꺼라고 생각했다.
그러나 잡스는 사람을 들었다. 애플의 초창기에 세상을 바꾸어놓겠다고 했던 바로 그 비전을 여전히 뜨거운 가슴에 품고 있는 사람들. 자기는 그 열정을 가진 사람들을 찾아내는 것에서부터 애플 재건 작업을 시작했다고 말했다.
강준열님
“펩시는 10년에 한 번씩 자사 제품을 교체하죠.
새 제품이래봤자 신규 사이즈 페트병이겠지만.
그러니 만약 당신이 개발팀 사람이라면 회사의 방향성에 영향을 끼칠 수 없어요.
그럼 펩시의 매출에 도움이 되는 건 누굴까요?
세일즈 팀과 마케팅 팀 사람들이죠.
그러니 그 사람들이 승진하게 되고, 그 사람들이 회사를 운영하게 됩니다.
독점적 지위를 가진 기술 기업들에도 똑같은 일이 벌어진다는 겁니다.
IBM이나 제록스처럼요.
어차피 시장에서 독점적인 지위가 있는데, 회사가 돈을 더 벌 것도 아닐 테니까요.
그러니 기업의 매출을 늘리는 사람은 세일즈 팀과 마케팅 팀이 됩니다.
결국 그들이 회사를 운영하게 되죠.
제품의 감수성 같은 것은 사라지고
그런 독점적인 지위를 만들어낸 천재적인 개발자들은 철저히 배제됩니다.
좋은 제품과 나쁜 제품의 차이를 전혀 모르는 회사 운영진에 의해서요.
좋은 아이디어를 좋은 제품으로 만드는데 필요한 장인 정신이라는 개념을 알지 못합니다.
그리고 그들은 보통 가슴속에 고객을 위하려는 마음도 없습니다.
그게 제록스에 있었던 일이고, 제록스 사람들은 운영진을 토너 대가리라 불렀어요.
그리고 이 토너 대가리들은 제록스에서 뭔 일이 벌어졌는지 감도 못 잡더군요.
컴퓨터의 가능성에 대해 아무것도 모르는 사람들.
그렇게 컴퓨터 산업에서 거대한 승리를 했음에도 발목이 잡힌 거죠.
제록스는 컴퓨터 산업 전체를 지배할 수도 있었어요.”
새 제품이래봤자 신규 사이즈 페트병이겠지만.
그러니 만약 당신이 개발팀 사람이라면 회사의 방향성에 영향을 끼칠 수 없어요.
그럼 펩시의 매출에 도움이 되는 건 누굴까요?
세일즈 팀과 마케팅 팀 사람들이죠.
그러니 그 사람들이 승진하게 되고, 그 사람들이 회사를 운영하게 됩니다.
독점적 지위를 가진 기술 기업들에도 똑같은 일이 벌어진다는 겁니다.
IBM이나 제록스처럼요.
어차피 시장에서 독점적인 지위가 있는데, 회사가 돈을 더 벌 것도 아닐 테니까요.
그러니 기업의 매출을 늘리는 사람은 세일즈 팀과 마케팅 팀이 됩니다.
결국 그들이 회사를 운영하게 되죠.
제품의 감수성 같은 것은 사라지고
그런 독점적인 지위를 만들어낸 천재적인 개발자들은 철저히 배제됩니다.
좋은 제품과 나쁜 제품의 차이를 전혀 모르는 회사 운영진에 의해서요.
좋은 아이디어를 좋은 제품으로 만드는데 필요한 장인 정신이라는 개념을 알지 못합니다.
그리고 그들은 보통 가슴속에 고객을 위하려는 마음도 없습니다.
그게 제록스에 있었던 일이고, 제록스 사람들은 운영진을 토너 대가리라 불렀어요.
그리고 이 토너 대가리들은 제록스에서 뭔 일이 벌어졌는지 감도 못 잡더군요.
컴퓨터의 가능성에 대해 아무것도 모르는 사람들.
그렇게 컴퓨터 산업에서 거대한 승리를 했음에도 발목이 잡힌 거죠.
제록스는 컴퓨터 산업 전체를 지배할 수도 있었어요.”
❤6
Forwarded from SNEW스뉴
투자은행(IB)업계에 따르면 비바리퍼블리카는 이번주 국내 IPO 주관사에 국내 상장 작업을 중단하겠다는 의사를 통보했다. 올해 2월 국내 상장을 위해 미래에셋증권과 한국투자증권을 대표주관사, 삼성증권을 공동주관사로 선정한 지 8개월 만이다.
비바리퍼블리카는 이르면 연내 미국 상장 주관사를 선정하고 미국 증시 입성을 준비할 계획이다. 상장 시기는 내년 하반기 또는 2026년 초로 예상된다. 시장에서 토스 기업가치는 10조~20조원 수준으로 거론된다.
https://n.news.naver.com/article/015/0005050408?sid=101
비바리퍼블리카는 이르면 연내 미국 상장 주관사를 선정하고 미국 증시 입성을 준비할 계획이다. 상장 시기는 내년 하반기 또는 2026년 초로 예상된다. 시장에서 토스 기업가치는 10조~20조원 수준으로 거론된다.
https://n.news.naver.com/article/015/0005050408?sid=101
Naver
[단독] "한국선 핀테크 제값 못받아"…토스, 미국 상장 '노크'
▶마켓인사이트 10월 29일 오후 3시 51분 토스 운영사 비바리퍼블리카가 국내 상장 계획을 접고 미국 증시에서 기업공개(IPO)를 추진하기로 했다. 한국 증시에선 10조원이 넘는 핀테크 기업 토스의 기업가치를 온전
세계화는 끝났다, 도전이 도사리고 있다
TSMC가 지금 같은 자리에 오른 건 미국이 첨단 공정 장비를 보호한 덕분
중국이 ASML의 EUV(극자외선) 등 첨단 노광 장비 수입 제한으로 첨단 공정에서 진전을 이루지 못했기 때문에 TSMC가 경쟁력을 유지하고 있는 것
중국이 첨단 공정 기술을 돌파하면, 가장 먼저 사라질 기업은 ASML이며, TSMC 또한 경쟁 심화로 어려움을 겪을 것
삼성의 중국 시장 점유율은 2005년 이전 30%를 넘었으나, 이후 급격히 하락해 0.3%에 불과하다”며 “아프리카와 동남아 시장에서도 중국 브랜드에 잠식당했고, 주요한 생산 기지인 베트남에서도 중국 브랜드에 밀리고 있다
가장 심각한 건 삼성의 최대 경쟁력이었던 D램 시장에서도 HBM(고대역폭메모리) 경쟁에서 SK하이닉스에 완패한 점
이 모든 것이 말해주는 건 중국이 참여하는 세계화 속에서 산업 경쟁이 치열해지고 있다는 것”이라며 “결국 최종 승자는 기술 장벽을 높여 중국이 따라올 수 없게 만든 기업뿐
https://biz.chosun.com/it-science/ict/2024/10/29/DSIZF746QBEO5ELU3PZVLNA5FM/
TSMC가 지금 같은 자리에 오른 건 미국이 첨단 공정 장비를 보호한 덕분
중국이 ASML의 EUV(극자외선) 등 첨단 노광 장비 수입 제한으로 첨단 공정에서 진전을 이루지 못했기 때문에 TSMC가 경쟁력을 유지하고 있는 것
중국이 첨단 공정 기술을 돌파하면, 가장 먼저 사라질 기업은 ASML이며, TSMC 또한 경쟁 심화로 어려움을 겪을 것
삼성의 중국 시장 점유율은 2005년 이전 30%를 넘었으나, 이후 급격히 하락해 0.3%에 불과하다”며 “아프리카와 동남아 시장에서도 중국 브랜드에 잠식당했고, 주요한 생산 기지인 베트남에서도 중국 브랜드에 밀리고 있다
가장 심각한 건 삼성의 최대 경쟁력이었던 D램 시장에서도 HBM(고대역폭메모리) 경쟁에서 SK하이닉스에 완패한 점
이 모든 것이 말해주는 건 중국이 참여하는 세계화 속에서 산업 경쟁이 치열해지고 있다는 것”이라며 “결국 최종 승자는 기술 장벽을 높여 중국이 따라올 수 없게 만든 기업뿐
https://biz.chosun.com/it-science/ict/2024/10/29/DSIZF746QBEO5ELU3PZVLNA5FM/
Chosun Biz
“TSMC는 ‘역세계화’ 수혜자… 기술 경쟁력 잃은 삼성전자를 반면교사 삼아야”
TSMC는 역세계화 수혜자 기술 경쟁력 잃은 삼성전자를 반면교사 삼아야 대만 경제전문가 셰진허 회장 TSMC 성장, 美 대중 제재 덕분 中 첨단 기술 돌파하면 TSMC 경쟁력 하락할 것 핵심은 기술 장벽... 삼성전자, 반도체·스마트폰 사업서 경쟁사에 밀려
지난 몇 주 간에 걸쳐 어쨌든 화공과 학생들에게 random walk 부터 Langevin 방정식까지 연결되는 과정을 잘 전달하고 가르치는 것에 성공한 것 (으로 보인다) 같다. 화공과 학부 전달현상 과목에서 뭐 대단한거 가르친답시고, 그냥 확산 방정식만 써주면 되지 뭐 그걸 다 일일이 유도하고 거기에 더해 랑제방 방정식 가르치고 유도하고 그러느냐고 타박하는 선생님들이 계시지만, 그래도 이런 강의가 한 개 정도는 진지한 교육하는 학교에는 남아 있어도 되지 않을까 생각한다. 확산 방정식을 완전 random walk 부터 하나씩 유도하고 랑제방 방정식까지 가고, 다음 단계로 Fokker-Planck equation 도 가르치고, 하는 김에 sampling algorithm 도 가르치고 그러면, 비단 확산방정식 뿐만 아니라, 그와 연계된 확률론적 과정으로 이어지는 스토리도 잘 연결되고 또 다양한 분야로 응용을 할 수 있는 인사이트도 학생들에게 줄 수 있다(고 믿는다).
아마 학부생들 입장에서 가장 충격적인 사실이라면, 애써서 governing equation 배워 푸는 방법을 배웠더니, 그건 사실 deterministic case에만 적용되는 것이기에, stochastic version을 다시 배우고 두 케이스가 어떻게 연결되는지 확인하기 위해 수학적으로 지난한 과정을 거치는 한 단계를 더 익혀야 한다는 사실일지도 모르겠다. 그렇지만 그 고생을 하면서 더 풍부한 정보를 얻게 되고, 현실에 좀더 가까운 모델을 접할 수 있게 되는 것도 대학에서 배우는 공부의 즐거움 중 하나가 아닐까 생각한다.
사실 학부 수준의 전달현상 교육에서 확률론적 과정까지 배우고, 그것을 위해 난수 생성 원리, 샘플링 방법 등을 같이 배우는 것은 다소 오버처럼 느껴질 수 있다. 그렇지만 해본 사람은 안다. 확률론적 과정이 다 governing equation으로 잘 기술될 수 있는 것도 아니고, 그 과정을 모사하기 위해서는 MC simulation이 필요하고, KMC를 하려면 uniform random number로부터 sample을 얻어내는 과정을 이해해야 한다는 것을 말이다. 난수 생성이 pseudo-random number generation이라면 결국 repeatability를 벗어날 수 없고, 따라서 큰 시스템에서 보이는 고유 현상을 다 설명하기 어렵게 된다. 또한 특정 확률분포함수를 갖는 변수들에 대해서, 그 누적확률분포함수(CDF)의 역함수를 explicit 하게 구할 수 없는 경우에는 어쩔 수 없이 rejection sampling이나 Markov chain MC sampling 같은 샘플링 방법을 써야 한다. 이러한 내용을 충분히 이해하지 못 한채 chatGPT에 이를 물어보면 그냥 rand(n,1) 쓰세요 라는 답변만 나오고, 학생들은 이를 자신의 코드에 그냥 ctrl+c/v 할 뿐인데, 그렇게 해서 만든 코드가 돌아갈지는 모르겠고, 돌아간다고 하더라도 그 결과물은 physically relevant 하지 않기 때문에 사실 문제가 많아진다.
아무리 AI가 교육부터 연구까지 득세하는 세상이 되었다고 해도, 여전히 대학에서는 기초를 제대로 시간 들여 가르치고, 그 기초가 왜 그 다음 단계로 가는 중요한 계단이 되는지를 정성들여 가르치는 것이 중요하다. 그것마저도 AI에 외주를 주면 가르치는 사람으로서 교수가 정말 해야 할 것이 얼마나 남아있게 될지 잘 모르겠다.
권석준님
아마 학부생들 입장에서 가장 충격적인 사실이라면, 애써서 governing equation 배워 푸는 방법을 배웠더니, 그건 사실 deterministic case에만 적용되는 것이기에, stochastic version을 다시 배우고 두 케이스가 어떻게 연결되는지 확인하기 위해 수학적으로 지난한 과정을 거치는 한 단계를 더 익혀야 한다는 사실일지도 모르겠다. 그렇지만 그 고생을 하면서 더 풍부한 정보를 얻게 되고, 현실에 좀더 가까운 모델을 접할 수 있게 되는 것도 대학에서 배우는 공부의 즐거움 중 하나가 아닐까 생각한다.
사실 학부 수준의 전달현상 교육에서 확률론적 과정까지 배우고, 그것을 위해 난수 생성 원리, 샘플링 방법 등을 같이 배우는 것은 다소 오버처럼 느껴질 수 있다. 그렇지만 해본 사람은 안다. 확률론적 과정이 다 governing equation으로 잘 기술될 수 있는 것도 아니고, 그 과정을 모사하기 위해서는 MC simulation이 필요하고, KMC를 하려면 uniform random number로부터 sample을 얻어내는 과정을 이해해야 한다는 것을 말이다. 난수 생성이 pseudo-random number generation이라면 결국 repeatability를 벗어날 수 없고, 따라서 큰 시스템에서 보이는 고유 현상을 다 설명하기 어렵게 된다. 또한 특정 확률분포함수를 갖는 변수들에 대해서, 그 누적확률분포함수(CDF)의 역함수를 explicit 하게 구할 수 없는 경우에는 어쩔 수 없이 rejection sampling이나 Markov chain MC sampling 같은 샘플링 방법을 써야 한다. 이러한 내용을 충분히 이해하지 못 한채 chatGPT에 이를 물어보면 그냥 rand(n,1) 쓰세요 라는 답변만 나오고, 학생들은 이를 자신의 코드에 그냥 ctrl+c/v 할 뿐인데, 그렇게 해서 만든 코드가 돌아갈지는 모르겠고, 돌아간다고 하더라도 그 결과물은 physically relevant 하지 않기 때문에 사실 문제가 많아진다.
아무리 AI가 교육부터 연구까지 득세하는 세상이 되었다고 해도, 여전히 대학에서는 기초를 제대로 시간 들여 가르치고, 그 기초가 왜 그 다음 단계로 가는 중요한 계단이 되는지를 정성들여 가르치는 것이 중요하다. 그것마저도 AI에 외주를 주면 가르치는 사람으로서 교수가 정말 해야 할 것이 얼마나 남아있게 될지 잘 모르겠다.
권석준님
페이스북에 입사한 뒤 얼마 안 있어 팰로알토에 있는 본사로 온보딩 교육을 떠났다. 팰로알토는 캘리포니아 주에 속해있는 작은 도시로 실리콘밸리를 상징하는 곳이다. 페이스북 본사는 바다를 막은 간척지 같은 곳에 있었는데, 지역 이름을 따서 MPK(menro park)라는 약칭으로 불렸다.
입사 첫 날을 MPK에서 보내는 것은 아니다. 자신이 채용된 국가의 오피스에서 근무를 시작하는 경우가 많고, 그 사람들을 모아 적당한 규모로 MPK에서 5일짜리 온보딩 교육을 진행한다. 대략 몇 십명 정도 규모였다. 숙소는 각자가 알아서 잡는 형태였기 때문에 저녁 시간은 꽤나 자유로웠다. 사람들이 자주 이용하는 호텔도 있었는데 나는 팰로알토를 좀더 잘 느끼고 싶어서 에어비앤비를 이용했다.
온보딩의 시작은 사원증을 신청하는 것으로부터 시작한다. MPK에 도착하면 입구의 보안 검색대에서 신원을 확인한 후에 사진을 찍고 임시출입증을 받는다. 사원증은 온보딩 기간 중에 받을 수 있다. 앞면에는 얼굴과 영어 이름, 그리고 뒷면에서 파란 바탕에 페이스북 로고가 있는 사원증이었다.
MPK는 꽤 큰 부지의 땅에 위치해 있었는데 3층 높이의 낮은 건물 수십 개가 빙 둘러져 있고, 그 안쪽에는 마치 대학 캠페스를 떠올리게 하는 것처럼 넓게 오픈된 공간이 있어서 걸어다니기에 좋았다. 군데군에 카페과 꽤 많은 숫자의 식당이 있었는데 모두 특색이 달랐다. 식당은 나라별 컨셉에 따라 분위기와 메뉴가 다채로웠고 취향에 따라 어디에서 먹을 지를 자유롭게 고를 수 있었다. 별도의 식사시간이 있기 보다는 아무 때나 몇 번이고 이용할 수 있었다.
음식은 꽤 맛이 있었고 공짜였다. 버튼을 누르면 기계가 즉석에서 오렌지를 반으로 갈라 즙을 짜 주었다. 과일과 샐러드도 다양하게 준비되어 있었고, 가볍게 빵이나 샌드위치를 집을 수도 있었다. 꽤 맛있는 젤라또 가게도 있어서 시간이 날 때마다 먹곤 했다. 샌프란시스코의 3대 커피 중 하나인 필즈 커피도 들어와 있었는데 이것만 비용을 지불해야 했다. 민트 잎을 넣은 시그니처 메뉴가 있었다.
온보딩 교육의 일정은 그리 타이트하지는 않았기 때문에 아침 일찍, 교육 중간중간, 그리고 교육이 끝났을 때 다양한 식당과 카페를 돌아다니면서 어디가 제일 좋은지, 어떤 메뉴를 꼭 먹어봐야 하는지 온보딩에 참여한 뉴비들은 서로 정보를 주고 받았다. 여러 번 먹어도 상관없었기 때문에 온보딩 기간 동안 모두들 조금씩 살이 쪘다. 곳곳에 맥주와 칵테일을 마실 수 있는 공간이 있어서 굳이 밖에 나가 비싼 돈을 내지 않아도 동기들과 즐거운 시간을 보낼 수 있었다.
공간이 넓어서 그런지, 출퇴근 시간이 따로 없어서 그런지 MPK를 걸어다니는 사람들은 모두 느긋하고 평온해 보였다. 야외에 테이블과 의자가 많았기 때문에 노트북을 들고 식당이나 카페에서 일하는 사람들도 많았다. 두리번 거리는 사람들은 대부분 뉴비였고, 그런 모습들을 보면서 자신이 처음 페이스북에 들어왔을 때를 떠올리는 것 같았다.
--
온보딩 교육은 굉장히 인상적이었다. 굉장히 다양한 세션들이 있었는데 '교육'이라기 보다는 'Culture'에 대한 이야기가 많았다. 무엇보다 흥미로웠던 것은 세션을 진행하는 사람들에 있었다. 온보딩 교육을 담당하는 강사들이 따로 있는 것이 아니라 방금 전까지 회의를 하던 사람들이 직접 나와서 이야기를 하는 듯한 느낌이었다. 각 업무의 실무자가 나오는 때도 있었지만 중간중간 꽤 많은 숫자의 C-level이 세션을 진행했다. 잠시 인사만 하고 가는 것이 아니라 한 시간짜리 세션을 Full로 진행하면서 Q&A도 받았다.
가장 인기가 있었던 것은 크리스 콕스(Chris Cox)였다. 페이스북의 제품을 담당하는 총책임자로서 마크 저커버그와 셰릴 샌드버그 다음으로 유명했고, 톰 그루즈를 닮은 듯한 외무에 자신감 넘치는 말투를 가진 셀럽 같은 느낌의 사람이었다. 이름은 기억나지 않지만 페이스북의 CFO, CTO도 각각 재무세션과 기술세션을 담당했다. 고작 몇 십명의 뉴비들을 위해서 회사의 C-level이 한 달에 두 번 정도 열리곤 했던 온보딩 교육에서 한 시간씩을 보내는 것이었다.
페이스북을 다니면서 반복해서 느꼈던 것은 페이스북이 구성원을 대하는 방식이었다. 회사의 방향이나 문화, 집중하고 있는 업무에 대해서 정말로 끊임없이 이야기를 했다. 때로는 과하다 싶고, 비효율적으로 보이는 때도 있을 만큼 최대한 얼굴을 맞대고 설명을 했다. 회사와 합의된 내용이 아닌 각자가 그냥 자신의 생각을 말할 뿐이었는데, 그 안에서 묘한 공통점들을 느낄 수 있었다.
페이스북 이전에도, 이후에도 한국의 많은 회사에서 다양한 종류의 교육을 받아봤지만 그러한 교육이 실제로 일하는데 도움이 되었다고 느낀 적은 별로 없었다. 굉장히 형식적으로 진행되는 부분이 많았고, 해당 업무에 대해서 직접 진행한 적이 없거나 외부 강사를 통해 진행하는 경우도 많았다. 제한된 시간에 최대한 많은 것들을 일방향적으로 전달하려 하거나, 밤새워 도미노를 쌓는 것처럼(이것은 은유의 표현이 아니라 실제 도미노를 쌓는 것을 의미한다) 정신단결을 강조하곤 했다.
페이스북의 온보딩 교육이 달랐던 것은 그 세션을 대하는 사람들의 태도에 있었다. 회사에 처음 입사했을 때, 그 백지와 같은 순간이 그 사람에게 그리고 페이스북에 얼마나 중요한 순간인지를 참여하는 모두가 분명하게 인지하고 있었다. 그렇기 때문에 고작 몇 십명의 뉴비들을 위해 그 바쁜 사람들이 시간을 내어 직접 세션을 진행한 것이다. 경험과 지식을 갖춘 사람들이 하는 세션은 바이브 자체가 달랐다.
--
온보딩 교육의 첫 번째 테마가 Culture였다면, 두 번째로 강조되는 것은 '보안'이었다. 대부분의 세션들이 굉장히 밝고 재미있게 진행되었는데 보안 세션 만큼은 완전히 달랐다.
Leak.
온보딩 세션 동안, 그리고 페이스북을 다니면서 가장 많이 들었던 단어 중의 하나다. '유출'을 의미하는 Leak은 '공유(open)'를 강조하는 페이스북 문화를 무너뜨릴 수 있는 가장 큰 위협으로 간주되었다. 다른 회사를 다니면서 회사의 가장 중요한 정보에 접해보지 못한 사람들은 별다른 의식없이 자신이 알고 있는 내용을 친구나 지인에게 이야기할 위험이 있었다. 공공장소에서 동료와 이야기하고 있는데 우연히 옆 테이블에 기자가 있는 것처럼 예기치 못한 상황도 있을 수 있다. 이러한 것들은 정상참작이 될까.
그렇지 않다는 것이 온보딩 교육 내내 강조되었다. One-strike out. 별다른 세부적인 가이드도 없다. 'Leak'이 의심되는 상황이 발생하면 언제든지 조사가 나올 수 있고 회사에서 지급된 업무용 스마트폰과 노트북이 압수될 수 있다.
I will find you and I will fire you.
영화 테이큰에서 리암 니슨이 말한 명대사가 오버랩되었다. '뭐, 이렇게까지 하나' 하는 생각이 들 만큼 온보딩 교육 분위기가 정말로 살벌했다. 그러나 페이스북을 다니면서 온보딩 때 왜 Leak을 이렇게까지 강조하는지를 잘 알게 되었다. 그만큼 페이스북은 거의 모든 종류의 컨피덴셜 정보를 구성원들에게 공유했던 것이다.
--
온보딩 세션 중간의 시간을 활용해서 사람들은 다양한 활동을 했다. 같이 세션에 참여한 다른 동기들과 이야기를 나누기도 하고, MPK 캠퍼스를 걸어다니기도 하고, 군데군데 놓여 있는 카우치에 누워 잠을 자기도 했고, MPK에 있는 수 많은 건물들을 자유롭게 돌아다니기도 했다. 그 중에서 가장 인기있는 활동 중의 하나는 '저커버그 만나고 오기'였다.
회사의 CEO를 만나서 이야기를 나눈다는 것은 내게는 굉장히 생소한 이야기였다. 2014년이고 한국에서는 아직 그렇게까지 영향력은 없는 때였지만, 이미 미국에서는 그리고 꽤 많은 나라에서 페이스북은 굉장히 힙한 서비스였고, 시가총액도 높고, 직원수도 이미 1만명에 달하는 큰 조직이었다. LG전자에서는 상무만 달아도 전용 엘리베이터를 타고 다녔고, 네이버에서도 평사원이 창업주를 만나러 간다는 것은 생각하기 어려웠다. LG전자와 다른 점이 있다면 같은 엘리베이터를 탄다는 정도였지만 말을 걸기는 어려웠다. 그 만큼 '그들'은 굉장히 먼 존재였다.
입사 첫 날을 MPK에서 보내는 것은 아니다. 자신이 채용된 국가의 오피스에서 근무를 시작하는 경우가 많고, 그 사람들을 모아 적당한 규모로 MPK에서 5일짜리 온보딩 교육을 진행한다. 대략 몇 십명 정도 규모였다. 숙소는 각자가 알아서 잡는 형태였기 때문에 저녁 시간은 꽤나 자유로웠다. 사람들이 자주 이용하는 호텔도 있었는데 나는 팰로알토를 좀더 잘 느끼고 싶어서 에어비앤비를 이용했다.
온보딩의 시작은 사원증을 신청하는 것으로부터 시작한다. MPK에 도착하면 입구의 보안 검색대에서 신원을 확인한 후에 사진을 찍고 임시출입증을 받는다. 사원증은 온보딩 기간 중에 받을 수 있다. 앞면에는 얼굴과 영어 이름, 그리고 뒷면에서 파란 바탕에 페이스북 로고가 있는 사원증이었다.
MPK는 꽤 큰 부지의 땅에 위치해 있었는데 3층 높이의 낮은 건물 수십 개가 빙 둘러져 있고, 그 안쪽에는 마치 대학 캠페스를 떠올리게 하는 것처럼 넓게 오픈된 공간이 있어서 걸어다니기에 좋았다. 군데군에 카페과 꽤 많은 숫자의 식당이 있었는데 모두 특색이 달랐다. 식당은 나라별 컨셉에 따라 분위기와 메뉴가 다채로웠고 취향에 따라 어디에서 먹을 지를 자유롭게 고를 수 있었다. 별도의 식사시간이 있기 보다는 아무 때나 몇 번이고 이용할 수 있었다.
음식은 꽤 맛이 있었고 공짜였다. 버튼을 누르면 기계가 즉석에서 오렌지를 반으로 갈라 즙을 짜 주었다. 과일과 샐러드도 다양하게 준비되어 있었고, 가볍게 빵이나 샌드위치를 집을 수도 있었다. 꽤 맛있는 젤라또 가게도 있어서 시간이 날 때마다 먹곤 했다. 샌프란시스코의 3대 커피 중 하나인 필즈 커피도 들어와 있었는데 이것만 비용을 지불해야 했다. 민트 잎을 넣은 시그니처 메뉴가 있었다.
온보딩 교육의 일정은 그리 타이트하지는 않았기 때문에 아침 일찍, 교육 중간중간, 그리고 교육이 끝났을 때 다양한 식당과 카페를 돌아다니면서 어디가 제일 좋은지, 어떤 메뉴를 꼭 먹어봐야 하는지 온보딩에 참여한 뉴비들은 서로 정보를 주고 받았다. 여러 번 먹어도 상관없었기 때문에 온보딩 기간 동안 모두들 조금씩 살이 쪘다. 곳곳에 맥주와 칵테일을 마실 수 있는 공간이 있어서 굳이 밖에 나가 비싼 돈을 내지 않아도 동기들과 즐거운 시간을 보낼 수 있었다.
공간이 넓어서 그런지, 출퇴근 시간이 따로 없어서 그런지 MPK를 걸어다니는 사람들은 모두 느긋하고 평온해 보였다. 야외에 테이블과 의자가 많았기 때문에 노트북을 들고 식당이나 카페에서 일하는 사람들도 많았다. 두리번 거리는 사람들은 대부분 뉴비였고, 그런 모습들을 보면서 자신이 처음 페이스북에 들어왔을 때를 떠올리는 것 같았다.
--
온보딩 교육은 굉장히 인상적이었다. 굉장히 다양한 세션들이 있었는데 '교육'이라기 보다는 'Culture'에 대한 이야기가 많았다. 무엇보다 흥미로웠던 것은 세션을 진행하는 사람들에 있었다. 온보딩 교육을 담당하는 강사들이 따로 있는 것이 아니라 방금 전까지 회의를 하던 사람들이 직접 나와서 이야기를 하는 듯한 느낌이었다. 각 업무의 실무자가 나오는 때도 있었지만 중간중간 꽤 많은 숫자의 C-level이 세션을 진행했다. 잠시 인사만 하고 가는 것이 아니라 한 시간짜리 세션을 Full로 진행하면서 Q&A도 받았다.
가장 인기가 있었던 것은 크리스 콕스(Chris Cox)였다. 페이스북의 제품을 담당하는 총책임자로서 마크 저커버그와 셰릴 샌드버그 다음으로 유명했고, 톰 그루즈를 닮은 듯한 외무에 자신감 넘치는 말투를 가진 셀럽 같은 느낌의 사람이었다. 이름은 기억나지 않지만 페이스북의 CFO, CTO도 각각 재무세션과 기술세션을 담당했다. 고작 몇 십명의 뉴비들을 위해서 회사의 C-level이 한 달에 두 번 정도 열리곤 했던 온보딩 교육에서 한 시간씩을 보내는 것이었다.
페이스북을 다니면서 반복해서 느꼈던 것은 페이스북이 구성원을 대하는 방식이었다. 회사의 방향이나 문화, 집중하고 있는 업무에 대해서 정말로 끊임없이 이야기를 했다. 때로는 과하다 싶고, 비효율적으로 보이는 때도 있을 만큼 최대한 얼굴을 맞대고 설명을 했다. 회사와 합의된 내용이 아닌 각자가 그냥 자신의 생각을 말할 뿐이었는데, 그 안에서 묘한 공통점들을 느낄 수 있었다.
페이스북 이전에도, 이후에도 한국의 많은 회사에서 다양한 종류의 교육을 받아봤지만 그러한 교육이 실제로 일하는데 도움이 되었다고 느낀 적은 별로 없었다. 굉장히 형식적으로 진행되는 부분이 많았고, 해당 업무에 대해서 직접 진행한 적이 없거나 외부 강사를 통해 진행하는 경우도 많았다. 제한된 시간에 최대한 많은 것들을 일방향적으로 전달하려 하거나, 밤새워 도미노를 쌓는 것처럼(이것은 은유의 표현이 아니라 실제 도미노를 쌓는 것을 의미한다) 정신단결을 강조하곤 했다.
페이스북의 온보딩 교육이 달랐던 것은 그 세션을 대하는 사람들의 태도에 있었다. 회사에 처음 입사했을 때, 그 백지와 같은 순간이 그 사람에게 그리고 페이스북에 얼마나 중요한 순간인지를 참여하는 모두가 분명하게 인지하고 있었다. 그렇기 때문에 고작 몇 십명의 뉴비들을 위해 그 바쁜 사람들이 시간을 내어 직접 세션을 진행한 것이다. 경험과 지식을 갖춘 사람들이 하는 세션은 바이브 자체가 달랐다.
--
온보딩 교육의 첫 번째 테마가 Culture였다면, 두 번째로 강조되는 것은 '보안'이었다. 대부분의 세션들이 굉장히 밝고 재미있게 진행되었는데 보안 세션 만큼은 완전히 달랐다.
Leak.
온보딩 세션 동안, 그리고 페이스북을 다니면서 가장 많이 들었던 단어 중의 하나다. '유출'을 의미하는 Leak은 '공유(open)'를 강조하는 페이스북 문화를 무너뜨릴 수 있는 가장 큰 위협으로 간주되었다. 다른 회사를 다니면서 회사의 가장 중요한 정보에 접해보지 못한 사람들은 별다른 의식없이 자신이 알고 있는 내용을 친구나 지인에게 이야기할 위험이 있었다. 공공장소에서 동료와 이야기하고 있는데 우연히 옆 테이블에 기자가 있는 것처럼 예기치 못한 상황도 있을 수 있다. 이러한 것들은 정상참작이 될까.
그렇지 않다는 것이 온보딩 교육 내내 강조되었다. One-strike out. 별다른 세부적인 가이드도 없다. 'Leak'이 의심되는 상황이 발생하면 언제든지 조사가 나올 수 있고 회사에서 지급된 업무용 스마트폰과 노트북이 압수될 수 있다.
I will find you and I will fire you.
영화 테이큰에서 리암 니슨이 말한 명대사가 오버랩되었다. '뭐, 이렇게까지 하나' 하는 생각이 들 만큼 온보딩 교육 분위기가 정말로 살벌했다. 그러나 페이스북을 다니면서 온보딩 때 왜 Leak을 이렇게까지 강조하는지를 잘 알게 되었다. 그만큼 페이스북은 거의 모든 종류의 컨피덴셜 정보를 구성원들에게 공유했던 것이다.
--
온보딩 세션 중간의 시간을 활용해서 사람들은 다양한 활동을 했다. 같이 세션에 참여한 다른 동기들과 이야기를 나누기도 하고, MPK 캠퍼스를 걸어다니기도 하고, 군데군데 놓여 있는 카우치에 누워 잠을 자기도 했고, MPK에 있는 수 많은 건물들을 자유롭게 돌아다니기도 했다. 그 중에서 가장 인기있는 활동 중의 하나는 '저커버그 만나고 오기'였다.
회사의 CEO를 만나서 이야기를 나눈다는 것은 내게는 굉장히 생소한 이야기였다. 2014년이고 한국에서는 아직 그렇게까지 영향력은 없는 때였지만, 이미 미국에서는 그리고 꽤 많은 나라에서 페이스북은 굉장히 힙한 서비스였고, 시가총액도 높고, 직원수도 이미 1만명에 달하는 큰 조직이었다. LG전자에서는 상무만 달아도 전용 엘리베이터를 타고 다녔고, 네이버에서도 평사원이 창업주를 만나러 간다는 것은 생각하기 어려웠다. LG전자와 다른 점이 있다면 같은 엘리베이터를 탄다는 정도였지만 말을 걸기는 어려웠다. 그 만큼 '그들'은 굉장히 먼 존재였다.
❤1
저커버그를 만날 수 있다는 말을 듣고 나도 시간을 내어 그를 찾아다니기 시작했다. 그렇지 않아도 MPK로 오기 전에 페이스북 동료 한 명이 내게 '저커버그 만나기'에 대해서 이야기를 했었는데 나는 그것이 농담이라고 생각했던 것이었다. 하지만 아무리 찾아도 찾을 수가 없었다. CEO 집무실이 있을 만한 곳을 꽤 많이 돌아다녔지만 소용이 없었던 것이다.
도대체 어디 있는거야?
온보딩 세션을 같이 하는 동료에게 물어보니 어이없다는 표정을 지었다. 위치를 듣고 보니 나도 어이가 없었다. 매일같이 가던 식당 옆 빌딩에 들어가자마자 왼쪽 첫 번째에 있는 방이었다. 벽은 유리로 되어 있었고 밖에서도 누구나 안을 들여다볼 수 있었다. 괜히 깊숙한 곳을 찾아다닐 필요가 없었던 것이다.
위치를 알고 다음 휴식시간에 바로 찾아갔다. 마크는 사람들에 둘러쌓여 조금은 멋적은 얼굴로 케이크 위의 촛불을 끄고 있었다. 마크의 서른 번째 생일이었다. 잠시 기다렸다가 사람들이 흩어지자 그에게로 가서 인사를 했다. 한국에서 왔고 앞으로 잘해보겠다고. 마크는 웃으면서 환영한다고 말해주었고 악수를 했다. 기분좋을 만큼 힘이 꽉 들어간 악수였다.
다음 날 점심시간에도 마크를 볼 수 있었다. 다른 사람처럼 똑같이 줄을 서 있었다. 마크라고 해서 아무도 자리를 비켜주지 않았다. 마크는 앞에 있는 사람과 이야기하고 있었는데 딱 봐도 둘은 서로 잘 알지 못하는 사이였다. 그냥 페이스북에 다니고 있는 사람이면 누구나 점심시간에 줄을 서다가 마크를 볼 수 있고, 하나도 중요하지 않은 시덥잖은 이야기를 할 수 있었던 것이다.
그제서야 의문이 풀렸다. 어쩌면 나는 온보딩 기간 동안 꽤 많이 마크를 스쳐지나갔을 것이다. 그것이 마크였다는 것을 하나도 인식하지 못하면서.
--
온보딩의 마지막은 매주 금요일 오후 4시에 열리는 Mark's Q&A에 참석하는 것이었다. 한국에서도 라이브로 볼 수 있었던 자리에 실제로 참여할 수 있었던 것이다. 200명 정도 들어갈 수 있는 공간에서 진행되었는데 별도의 신청 프로세스는 없었다. 혹시라도 자리가 없을까 굉장히 조바심이 났다.
Mark's Q&A에 참석하는 것은 의무가 아니었다. 금요일 점심시간에 공식적인 온보딩은 모두 끝났기 때문에 원하는 사람들은 일찍 MPK를 떠날 수 있었다. 의외로 많은 동기들이 Mark's Q&A보다는 샌프란시스코 관광을 선택하러 나갔다. 잘 이해가 되지는 않았지만 경쟁자가 줄어 다행이라는 생각을 했다.
Mark's Q&A는 4시부터 시작했지만 혹시라도 자리가 없을까봐 점심을 먹은 뒤에 바로 Q&A가 열리는 자리에 갔다. 의자들이 깔려 있었지만 사람들은 아무도 없었다. 머쓱해진 마음으로 그곳을 떠나 건물 이곳저곳을 돌아다녔다. 가끔씩 불안해서 돌아와봐도 계속해서 아무도 없었다. 혹시 장소가 바뀐 것이 아닐까 하는 걱정이 들었지만 달리 할 수 있는 것은 없었다.
대신 두 시간 넘는 시간 동안 페이스북 사람들이 일하는 모습을 가만히 지켜볼 수 있었다. 층고가 굉장히 높았고, 하얀 책상에 월 마운트가 부착된 큼지막한 모니터가 두 개씩 있었고, 자리와 자리 사이에는 칸막이가 없었다. 높이를 조절할 수 있는 책상이라 군데군데 서서 일하는 사람이 많았다.
회의실도 많이 있었지만 자리에서 동료와 이야기하기도 했고, 주변의 동료들은 일을 하다 중간중간 끼어들기도 하고, 집중해야 할 필요가 있을 때는 노이즈캔슬링 헤드폰을 끼기도 했다. 뭔가 굉장히 자연스러웠다. 5일간의 온보딩 교육 때 느꼈던 것과 굉장한 일체감이 있었다. 공간과 사람, 그리고 문화가 잘 어울러진 느낌이었다.
Q&A에 참석할 자리가 없을까 걱정했던 것은 완전한 기우였다. 사람들은 3시50분이 되어서야 어슬렁거리면서 나타났다. 꽤 많은 사람들이 왔지만 빈자리도 군데군데 있었다. 일부러 자리에 앉지 않고 뒤편에 서서 참여하는 사람도 꽤 많았다. 늘상 있는 것처럼 모든 것이 자연스러웠다. 매주 진행되는 정기일정이었기 때문에 마음만 먹으면 언제라도 참석할 수 있고, 또 자기 자리에서 듣는 사람들도 많았기 때문이었다.
Mark's Q&A는 굉장히 인상적이었다. 마크는 10분 동안 자신의 생각을 이야기했고, 50분 동안 사람들의 질문을 받았다. 바보같은 질문이건, 어려운 질문이건 가리지 않았다. 어떤 질문이든 할 수 있었고, 자신이 대답할 수 없는 내용은 같이 참석한 셰릴이나 다른 동료에게 마이크를 넘겼다. 그러나 왠만한 질문에는 직접 답을 했다.
모든 질문에 똑같이 친절하게 답한 것은 아니었다. 간단한 질문에는 간단하게, 좋은 질문에는 굉장히 긴 시간을 들여서 자신의 생각을 이야기했다.
사람들이 앉아있는 의자들 사이에는 2-3개의 통로가 있었고 거기에 스탠딩 마이크가 있었다. 질문을 하고 싶은 사람들은 차례차례 줄을 섰다. 주머니에 손을 넣고 있는 사람도 많았고 아무도 격식을 따지지 않았다. 다만, 질문을 할 때에는 자신의 소속과 이름을 밝히고 시작을 했다. 페이스북은 '익명'을 굉장히 싫어하는 회사다. 어떤 말이든지 해도 좋지만 이야기를 할 때는 자신을 분명하게 드러내야 했다.
아무리 페이스북이라 하더라도 많은 사람들 앞에서 자신을 노출하는 것을 부담스러워 하는 사람들도 물론 많이 있었다. 페이스북은 그런 사람들에게도 '안전하다'는 인식을 심어주기 위해 노력했지만, 그러한 사람들을 필요 이상으로 배려하지는 않았다. 가령, 익명으로 질문을 받는 일은 없었다. 다른 나라에서 동시에 접속하는 사람들도 있기 때문에 온라인으로도 질문을 할 수 있지만, 그 경우에도 자신이 누군지를 밝혀야 했다. 권리는 그것을 감당할 수 있는 책임으로부터 나오기 때문이다.
한 시간짜리 세션은 그렇게 휙 하고 지나갔다. 내 삶에서 가장 인상적인 한 시간이었다. 그 자리에 있는 것이, 페이스북에서 일하는 것이 정말로 즐겁다는 생각을 했다. 앞으로의 시간을 기대할 수 있었다.
--
마침내 모든 온보딩이 끝났다. 회사에서 진행하는 거의 모든 교육에 대해서 굉장히 비판적인, '바빠죽겠는데 왠 시간낭비!'라고 생각하는 마음을 가지고 있었던 내게도 믿을 수 없을 만큼 의미있는 시간이었다.
김형석님
도대체 어디 있는거야?
온보딩 세션을 같이 하는 동료에게 물어보니 어이없다는 표정을 지었다. 위치를 듣고 보니 나도 어이가 없었다. 매일같이 가던 식당 옆 빌딩에 들어가자마자 왼쪽 첫 번째에 있는 방이었다. 벽은 유리로 되어 있었고 밖에서도 누구나 안을 들여다볼 수 있었다. 괜히 깊숙한 곳을 찾아다닐 필요가 없었던 것이다.
위치를 알고 다음 휴식시간에 바로 찾아갔다. 마크는 사람들에 둘러쌓여 조금은 멋적은 얼굴로 케이크 위의 촛불을 끄고 있었다. 마크의 서른 번째 생일이었다. 잠시 기다렸다가 사람들이 흩어지자 그에게로 가서 인사를 했다. 한국에서 왔고 앞으로 잘해보겠다고. 마크는 웃으면서 환영한다고 말해주었고 악수를 했다. 기분좋을 만큼 힘이 꽉 들어간 악수였다.
다음 날 점심시간에도 마크를 볼 수 있었다. 다른 사람처럼 똑같이 줄을 서 있었다. 마크라고 해서 아무도 자리를 비켜주지 않았다. 마크는 앞에 있는 사람과 이야기하고 있었는데 딱 봐도 둘은 서로 잘 알지 못하는 사이였다. 그냥 페이스북에 다니고 있는 사람이면 누구나 점심시간에 줄을 서다가 마크를 볼 수 있고, 하나도 중요하지 않은 시덥잖은 이야기를 할 수 있었던 것이다.
그제서야 의문이 풀렸다. 어쩌면 나는 온보딩 기간 동안 꽤 많이 마크를 스쳐지나갔을 것이다. 그것이 마크였다는 것을 하나도 인식하지 못하면서.
--
온보딩의 마지막은 매주 금요일 오후 4시에 열리는 Mark's Q&A에 참석하는 것이었다. 한국에서도 라이브로 볼 수 있었던 자리에 실제로 참여할 수 있었던 것이다. 200명 정도 들어갈 수 있는 공간에서 진행되었는데 별도의 신청 프로세스는 없었다. 혹시라도 자리가 없을까 굉장히 조바심이 났다.
Mark's Q&A에 참석하는 것은 의무가 아니었다. 금요일 점심시간에 공식적인 온보딩은 모두 끝났기 때문에 원하는 사람들은 일찍 MPK를 떠날 수 있었다. 의외로 많은 동기들이 Mark's Q&A보다는 샌프란시스코 관광을 선택하러 나갔다. 잘 이해가 되지는 않았지만 경쟁자가 줄어 다행이라는 생각을 했다.
Mark's Q&A는 4시부터 시작했지만 혹시라도 자리가 없을까봐 점심을 먹은 뒤에 바로 Q&A가 열리는 자리에 갔다. 의자들이 깔려 있었지만 사람들은 아무도 없었다. 머쓱해진 마음으로 그곳을 떠나 건물 이곳저곳을 돌아다녔다. 가끔씩 불안해서 돌아와봐도 계속해서 아무도 없었다. 혹시 장소가 바뀐 것이 아닐까 하는 걱정이 들었지만 달리 할 수 있는 것은 없었다.
대신 두 시간 넘는 시간 동안 페이스북 사람들이 일하는 모습을 가만히 지켜볼 수 있었다. 층고가 굉장히 높았고, 하얀 책상에 월 마운트가 부착된 큼지막한 모니터가 두 개씩 있었고, 자리와 자리 사이에는 칸막이가 없었다. 높이를 조절할 수 있는 책상이라 군데군데 서서 일하는 사람이 많았다.
회의실도 많이 있었지만 자리에서 동료와 이야기하기도 했고, 주변의 동료들은 일을 하다 중간중간 끼어들기도 하고, 집중해야 할 필요가 있을 때는 노이즈캔슬링 헤드폰을 끼기도 했다. 뭔가 굉장히 자연스러웠다. 5일간의 온보딩 교육 때 느꼈던 것과 굉장한 일체감이 있었다. 공간과 사람, 그리고 문화가 잘 어울러진 느낌이었다.
Q&A에 참석할 자리가 없을까 걱정했던 것은 완전한 기우였다. 사람들은 3시50분이 되어서야 어슬렁거리면서 나타났다. 꽤 많은 사람들이 왔지만 빈자리도 군데군데 있었다. 일부러 자리에 앉지 않고 뒤편에 서서 참여하는 사람도 꽤 많았다. 늘상 있는 것처럼 모든 것이 자연스러웠다. 매주 진행되는 정기일정이었기 때문에 마음만 먹으면 언제라도 참석할 수 있고, 또 자기 자리에서 듣는 사람들도 많았기 때문이었다.
Mark's Q&A는 굉장히 인상적이었다. 마크는 10분 동안 자신의 생각을 이야기했고, 50분 동안 사람들의 질문을 받았다. 바보같은 질문이건, 어려운 질문이건 가리지 않았다. 어떤 질문이든 할 수 있었고, 자신이 대답할 수 없는 내용은 같이 참석한 셰릴이나 다른 동료에게 마이크를 넘겼다. 그러나 왠만한 질문에는 직접 답을 했다.
모든 질문에 똑같이 친절하게 답한 것은 아니었다. 간단한 질문에는 간단하게, 좋은 질문에는 굉장히 긴 시간을 들여서 자신의 생각을 이야기했다.
사람들이 앉아있는 의자들 사이에는 2-3개의 통로가 있었고 거기에 스탠딩 마이크가 있었다. 질문을 하고 싶은 사람들은 차례차례 줄을 섰다. 주머니에 손을 넣고 있는 사람도 많았고 아무도 격식을 따지지 않았다. 다만, 질문을 할 때에는 자신의 소속과 이름을 밝히고 시작을 했다. 페이스북은 '익명'을 굉장히 싫어하는 회사다. 어떤 말이든지 해도 좋지만 이야기를 할 때는 자신을 분명하게 드러내야 했다.
아무리 페이스북이라 하더라도 많은 사람들 앞에서 자신을 노출하는 것을 부담스러워 하는 사람들도 물론 많이 있었다. 페이스북은 그런 사람들에게도 '안전하다'는 인식을 심어주기 위해 노력했지만, 그러한 사람들을 필요 이상으로 배려하지는 않았다. 가령, 익명으로 질문을 받는 일은 없었다. 다른 나라에서 동시에 접속하는 사람들도 있기 때문에 온라인으로도 질문을 할 수 있지만, 그 경우에도 자신이 누군지를 밝혀야 했다. 권리는 그것을 감당할 수 있는 책임으로부터 나오기 때문이다.
한 시간짜리 세션은 그렇게 휙 하고 지나갔다. 내 삶에서 가장 인상적인 한 시간이었다. 그 자리에 있는 것이, 페이스북에서 일하는 것이 정말로 즐겁다는 생각을 했다. 앞으로의 시간을 기대할 수 있었다.
--
마침내 모든 온보딩이 끝났다. 회사에서 진행하는 거의 모든 교육에 대해서 굉장히 비판적인, '바빠죽겠는데 왠 시간낭비!'라고 생각하는 마음을 가지고 있었던 내게도 믿을 수 없을 만큼 의미있는 시간이었다.
김형석님
❤1
https://www.instagram.com/reel/DByvvlUhyBu/?utm_source=ig_web_copy_link
Demanding, perfectionist, not easy to work with.
That’s exactly how it should be. To accomplish extraordinary things, it shouldn't be easy.
The most extraordinary achievements don’t come from magic. They come from hard work, every single day, for 61 years.
Demanding, perfectionist, not easy to work with.
That’s exactly how it should be. To accomplish extraordinary things, it shouldn't be easy.
The most extraordinary achievements don’t come from magic. They come from hard work, every single day, for 61 years.
팔란티어/Anduril이 B2B B2G에서 Network Effect를 만드는 방법
1. 그 분야에서 가장 어렵고 깐깐한 고객을 먼저 확보한다.
- Palantir: 국가 중에는 이스라엘 기업 중에는 Airbus와 협력했던 사례가 팔란티어의 다음 영업을 훨씬 쉽게 했다.
- Anduril: 이미 미국 정부와 협업을 많이 해오다보니 타사는 몇주 걸리는 NDA를 2-3일이면 끝낸다.
2. 여러 산업에 Case들을 만들고 확장하는 건 더 용이하다. 처음에 여러 포트폴리오(앤드릴의 경우에는 autonomous systems, AI-based surveillance, and defense technologie 등 넓은 포트폴리오가 고객 확보에 도움되었음.)를 가지고 고객을 확보한다. -> 하나 제품을 팔기 시작해서 업셀하기 용이하다.
https://youtu.be/QzjIfkNAp8U?si=RyiGBG8vL-t-fvGs
1. 그 분야에서 가장 어렵고 깐깐한 고객을 먼저 확보한다.
- Palantir: 국가 중에는 이스라엘 기업 중에는 Airbus와 협력했던 사례가 팔란티어의 다음 영업을 훨씬 쉽게 했다.
- Anduril: 이미 미국 정부와 협업을 많이 해오다보니 타사는 몇주 걸리는 NDA를 2-3일이면 끝낸다.
2. 여러 산업에 Case들을 만들고 확장하는 건 더 용이하다. 처음에 여러 포트폴리오(앤드릴의 경우에는 autonomous systems, AI-based surveillance, and defense technologie 등 넓은 포트폴리오가 고객 확보에 도움되었음.)를 가지고 고객을 확보한다. -> 하나 제품을 팔기 시작해서 업셀하기 용이하다.
https://youtu.be/QzjIfkNAp8U?si=RyiGBG8vL-t-fvGs
YouTube
Secrets Of Investing Early – Lessons From A Billion-Dollar Investor
For Episode 100, we have a special conversation with Elad Gil, one of Silicon Valley's great thinkers, builders, and investors. Elad has been involved with many of the leading technology companies of the past 20 years — and likely the next 20 years. Learn…
Siemens has signed an agreement to acquire Altair, a leading provider of #software in the industrial #simulation and analysis market. With this acquisition we strengthen our position as a leading technology company and the leader in industrial software and #AI.
❤1
인공지능(AI) 붐 속에 미국 월가 금융기관들이 엔비디아의 AI 칩을 담보로 15조원에 이르는 대출을 해주면서 새로운 채권시장이 형성되고 있다.
4일(현지시간) 파이낸셜타임스(FT)에 따르면 블랙스톤·핌코·칼라일·블랙록 등 월가 금융기관들은 지난해부터 이른바 '네오클라우드' 업체들에 이러한 방식의 대출을 해주고 있다.
코어위브·크루소·람다랩스 등 네오클라우드 업체는 AI 제품을 만드는 기술기업들에 클라우드 컴퓨팅을 제공하며 생성형 AI 모델 개발에 필수적인 그래픽처리장치(GPU) 수만개를 보유하고 있다.
이들이 이를 담보로 빌린 자금 규모가 110억 달러(약 15조1천억원)에 이르며, 이를 이용해 엔비디아 칩 추가 구매 등에 나서고 있다.
북미 네오클라우드 업체 가운데 최대 규모인 코어위브는 GPU 4만5천개 이상을 보유하고 있으며, 최근 18개월간 기업 평가 가치는 20억 달러(약 2조7천억원)에서 190억 달러(약 26조1천억원)로 급증했다.
이 업체는 지난 1년간 엔비디아 칩을 담보로 블랙스톤·칼라일 등으로부터 100억 달러(약 13조7천억원) 이상의 자금을 조달했으며, JP모건·골드만삭스·모건스탠리 등 월가 투자은행들로부터 신용한도 6억5천만 달러(약 9천억원)를 확보했다고 이달 밝힌 바 있다.
금융그룹 매쿼리는 지난 4월 람다랩스에 5억 달러(약 6천884억원)를, 투자사 어퍼90은 지난해 크루소에 2억 달러(약 2천753억원)를 빌려줬다.
크루소는 지난주에도 투자사들로부터 5억 달러를 조달했고, 지난달에는 한 대체 자산 운용사와 34억 달러(약 4조7천억원) 규모 계약을 통해 텍사스 신규 데이터센터를 위한 자금을 확보했다.
다만 신제품 칩이 출시되고 있고 기업들의 AI 투자 붐이 잦아들 수 있는 만큼 기존 칩의 담보 가치에 대해 의문을 제기하는 시각도 있다.
https://n.news.naver.com/article/001/0015025977?sid=101&fbclid=IwY2xjawGWhetleHRuA2FlbQIxMQABHQJ90VivJ13XBbU4A5cjI3ytluQV8tYa8SxEHWn-exrv_7C6CI-WgkTcMw_aem_3Ijc0yFSp-qHJbhZ7C8ZDg
4일(현지시간) 파이낸셜타임스(FT)에 따르면 블랙스톤·핌코·칼라일·블랙록 등 월가 금융기관들은 지난해부터 이른바 '네오클라우드' 업체들에 이러한 방식의 대출을 해주고 있다.
코어위브·크루소·람다랩스 등 네오클라우드 업체는 AI 제품을 만드는 기술기업들에 클라우드 컴퓨팅을 제공하며 생성형 AI 모델 개발에 필수적인 그래픽처리장치(GPU) 수만개를 보유하고 있다.
이들이 이를 담보로 빌린 자금 규모가 110억 달러(약 15조1천억원)에 이르며, 이를 이용해 엔비디아 칩 추가 구매 등에 나서고 있다.
북미 네오클라우드 업체 가운데 최대 규모인 코어위브는 GPU 4만5천개 이상을 보유하고 있으며, 최근 18개월간 기업 평가 가치는 20억 달러(약 2조7천억원)에서 190억 달러(약 26조1천억원)로 급증했다.
이 업체는 지난 1년간 엔비디아 칩을 담보로 블랙스톤·칼라일 등으로부터 100억 달러(약 13조7천억원) 이상의 자금을 조달했으며, JP모건·골드만삭스·모건스탠리 등 월가 투자은행들로부터 신용한도 6억5천만 달러(약 9천억원)를 확보했다고 이달 밝힌 바 있다.
금융그룹 매쿼리는 지난 4월 람다랩스에 5억 달러(약 6천884억원)를, 투자사 어퍼90은 지난해 크루소에 2억 달러(약 2천753억원)를 빌려줬다.
크루소는 지난주에도 투자사들로부터 5억 달러를 조달했고, 지난달에는 한 대체 자산 운용사와 34억 달러(약 4조7천억원) 규모 계약을 통해 텍사스 신규 데이터센터를 위한 자금을 확보했다.
다만 신제품 칩이 출시되고 있고 기업들의 AI 투자 붐이 잦아들 수 있는 만큼 기존 칩의 담보 가치에 대해 의문을 제기하는 시각도 있다.
https://n.news.naver.com/article/001/0015025977?sid=101&fbclid=IwY2xjawGWhetleHRuA2FlbQIxMQABHQJ90VivJ13XBbU4A5cjI3ytluQV8tYa8SxEHWn-exrv_7C6CI-WgkTcMw_aem_3Ijc0yFSp-qHJbhZ7C8ZDg
Naver
월가, '엔비디아 칩 담보' 15조원 대출…채권시장에도 AI 열풍
코어위브 등 네오클라우드 업체 대상 AI 붐 지속성 여부, 담보 가치에 의문도 인공지능(AI) 붐 속에 미국 월가 금융기관들이 엔비디아의 AI 칩을 담보로 15조원에 이르는 대출을 해주면서 새로운 채권시장이 형성되고
❤1
Ravi Gupta resigned from KKR and expected hell from Henry Kravis. Instead, he got a masterclass in leadership and a secret confession…
In 2015, Ravi Gupta was a high-flyer at private equity firm KKR. But he had been approached to leave his well paid, comfortable role and join a scrappy start-up.
Ravi took the plunge and quit his job.
However, soon after resigning he was summoned to fly to New York to meet founder of KKR and investing legend – Henry Kravis.
Ravi assumed this meeting would be an attempt to convince him to stay or a scolding from Henry. He couldn’t have been more wrong. Henry asked Ravi to sit down, and immediately congratulated him on his move.
Ravi was stunned: “Henry wanted to share the story of how he and George started KKR. He said he respected my desire to go help build something.” But Henry’s masterclass in leadership wasn’t the most memorable thing about their meeting. As Ravi was walking out, Henry stopped him…
Henry: “How old are you?”
Ravi: “I’m 33…”
Henry: “I would do anything to be 33 again…I would do anything to do it over again.”
Looking back on Henry’s parting comment nearly 10 years ago, Ravi recalled: “I didn’t understand it then. I do now.”
The start-up Ravi joined was Instacart, where he held roles as CFO and COO. Despite an incredibly challenging environment and fierce competition from heavyweights such as Amazon and Walmart, the company is now worth $12 Billion.
At 80-years-old, Henry shared his view on starting something new: “Don’t just talk about it, put both feet in and be dedicated - don’t be afraid to fail.”
In 2015, Ravi Gupta was a high-flyer at private equity firm KKR. But he had been approached to leave his well paid, comfortable role and join a scrappy start-up.
Ravi took the plunge and quit his job.
However, soon after resigning he was summoned to fly to New York to meet founder of KKR and investing legend – Henry Kravis.
Ravi assumed this meeting would be an attempt to convince him to stay or a scolding from Henry. He couldn’t have been more wrong. Henry asked Ravi to sit down, and immediately congratulated him on his move.
Ravi was stunned: “Henry wanted to share the story of how he and George started KKR. He said he respected my desire to go help build something.” But Henry’s masterclass in leadership wasn’t the most memorable thing about their meeting. As Ravi was walking out, Henry stopped him…
Henry: “How old are you?”
Ravi: “I’m 33…”
Henry: “I would do anything to be 33 again…I would do anything to do it over again.”
Looking back on Henry’s parting comment nearly 10 years ago, Ravi recalled: “I didn’t understand it then. I do now.”
The start-up Ravi joined was Instacart, where he held roles as CFO and COO. Despite an incredibly challenging environment and fierce competition from heavyweights such as Amazon and Walmart, the company is now worth $12 Billion.
At 80-years-old, Henry shared his view on starting something new: “Don’t just talk about it, put both feet in and be dedicated - don’t be afraid to fail.”
- 우리 일상에 아직 AI로 10~100배 좋은 경험을 얻을 수 있는 일들이 더 많음.
- 작지만 강한 팀, 100명 미만의 1조 B2B 회사도 나올 수 있음.
- SaaS가 초기 비용이 크고 나중에 매출구조가 큰 Return을 얻을 수 있다면 AI 스타트업은 이 기울기가 훨씬 가팔라짐.
- 생각보다 빠르게 변화가 일어나고 있음.
• 엔터프라이즈 파일럿 프로젝트가 예상보다 훨씬 빠르게 실제 매출로 전환됨.
• AI 도구 덕분에 스타트업이 더 적은 인원으로도 확장 가능.
• 전통적인 채용 대신 초기부터 AI 프로세스 구축에 초점.
•2~5백만 달러의 자본으로 24개월 내에 수천만 달러의 매출을 달성할 수 있는 스타트업을 시작할 수 있다.”
•여러 모델을 서로 다른 작업에 활용하는 회사 증가.
•일부 기업은 Series B/C 단계까지 특정 채용을 연기.
[Y Combinator의 2024년 리뷰]
무엇이 변화했는가?
• OpenAI/GPT Store의 지배 우려와 달리, 스타트업들은 번창함.
• Foundation Model 기업들이 가치를 독점하지 않았으며, 애플리케이션 계층이 매우 높은 가치를 증명.
• 오픈소스 모델(Meta의 Llama 등)이 성능 면에서 폐쇄형 모델에 빠르게 따라잡음.
• 엔터프라이즈 파일럿 프로젝트가 예상보다 훨씬 빠르게 실제 매출로 전환됨.
성장
• “2~5백만 달러의 자본으로 24개월 내에 수천만 달러의 매출을 달성할 수 있는 스타트업을 시작할 수 있다.”
• YC 참여 기업: 배치 중 3배 성장(주당 10% 성장).
• 벤 호로위츠: 연 매출 1억 달러를 달성하는 회사의 수가 연간 약 15개에서 약 1,500개로 증가.
주요 트렌드
1. 멀티모델 아키텍처
• 여러 모델을 서로 다른 작업에 활용하는 회사 증가.
• 2024년 가을 배치의 많은 기업들이 특정 작업에 가장 적합한 모델을 선택하는 멀티모델 아키텍처를 채택.
2. 음성 AI
• 여러 성공 사례를 포함한 주요 성장 분야.
• 승자독식 아님: 고객 지원, 언어 학습 등 다양한 Vertical Market에서 기회 존재.
3. AI 코딩
• Cursor 같은 툴이 널리 채택됨.
• 채용 방식 변화: 기업들이 AI 코딩 스택에 능숙한 엔지니어를 선호하며 더 많은 성장 잠재력을 모색.
주목할 만한 실패 사례
1. AR/VR의 어려움
• Apple Vision Pro와 Meta Quest가 대중화에 실패.
• 물리적 제약(하드웨어 크기, 비용 등)이 주요 장애물.
• 핵심 사례: 현재 가장 유망한 사용 사례는 “대형 모니터“로 활용하는 것.
2. 하드웨어의 한계
• 로보틱스와 AR/VR 같은 분야에 큰 영향을 미침.
• 하드웨어는 여전히 제작이 어렵고 비용이 매우 높음.
구조적 변화
• AI 도구 덕분에 스타트업이 더 적은 인원으로도 확장 가능.
• 일부 기업은 Series B/C 단계까지 특정 채용을 연기.
• 전통적인 채용 대신 초기부터 AI 프로세스 구축에 초점.
• 대면 근무로의 큰 전환과 샌프란시스코 기술 생태계의 부활.
- 작지만 강한 팀, 100명 미만의 1조 B2B 회사도 나올 수 있음.
- SaaS가 초기 비용이 크고 나중에 매출구조가 큰 Return을 얻을 수 있다면 AI 스타트업은 이 기울기가 훨씬 가팔라짐.
- 생각보다 빠르게 변화가 일어나고 있음.
• 엔터프라이즈 파일럿 프로젝트가 예상보다 훨씬 빠르게 실제 매출로 전환됨.
• AI 도구 덕분에 스타트업이 더 적은 인원으로도 확장 가능.
• 전통적인 채용 대신 초기부터 AI 프로세스 구축에 초점.
•2~5백만 달러의 자본으로 24개월 내에 수천만 달러의 매출을 달성할 수 있는 스타트업을 시작할 수 있다.”
•여러 모델을 서로 다른 작업에 활용하는 회사 증가.
•일부 기업은 Series B/C 단계까지 특정 채용을 연기.
[Y Combinator의 2024년 리뷰]
무엇이 변화했는가?
• OpenAI/GPT Store의 지배 우려와 달리, 스타트업들은 번창함.
• Foundation Model 기업들이 가치를 독점하지 않았으며, 애플리케이션 계층이 매우 높은 가치를 증명.
• 오픈소스 모델(Meta의 Llama 등)이 성능 면에서 폐쇄형 모델에 빠르게 따라잡음.
• 엔터프라이즈 파일럿 프로젝트가 예상보다 훨씬 빠르게 실제 매출로 전환됨.
성장
• “2~5백만 달러의 자본으로 24개월 내에 수천만 달러의 매출을 달성할 수 있는 스타트업을 시작할 수 있다.”
• YC 참여 기업: 배치 중 3배 성장(주당 10% 성장).
• 벤 호로위츠: 연 매출 1억 달러를 달성하는 회사의 수가 연간 약 15개에서 약 1,500개로 증가.
주요 트렌드
1. 멀티모델 아키텍처
• 여러 모델을 서로 다른 작업에 활용하는 회사 증가.
• 2024년 가을 배치의 많은 기업들이 특정 작업에 가장 적합한 모델을 선택하는 멀티모델 아키텍처를 채택.
2. 음성 AI
• 여러 성공 사례를 포함한 주요 성장 분야.
• 승자독식 아님: 고객 지원, 언어 학습 등 다양한 Vertical Market에서 기회 존재.
3. AI 코딩
• Cursor 같은 툴이 널리 채택됨.
• 채용 방식 변화: 기업들이 AI 코딩 스택에 능숙한 엔지니어를 선호하며 더 많은 성장 잠재력을 모색.
주목할 만한 실패 사례
1. AR/VR의 어려움
• Apple Vision Pro와 Meta Quest가 대중화에 실패.
• 물리적 제약(하드웨어 크기, 비용 등)이 주요 장애물.
• 핵심 사례: 현재 가장 유망한 사용 사례는 “대형 모니터“로 활용하는 것.
2. 하드웨어의 한계
• 로보틱스와 AR/VR 같은 분야에 큰 영향을 미침.
• 하드웨어는 여전히 제작이 어렵고 비용이 매우 높음.
구조적 변화
• AI 도구 덕분에 스타트업이 더 적은 인원으로도 확장 가능.
• 일부 기업은 Series B/C 단계까지 특정 채용을 연기.
• 전통적인 채용 대신 초기부터 AI 프로세스 구축에 초점.
• 대면 근무로의 큰 전환과 샌프란시스코 기술 생태계의 부활.
👍5🎉1
https://youtu.be/QVcSBHhcFbg
반도체 덕질하는 사람은 이런 생각을 하는구나.
스케일링 한계’ vs. 현실
OpenAI의 Ilia가 “인터넷 텍스트 데이터는 유한하다“고 언급, ‘데이터 고갈 → 사전학습 한계‘가 제기.
전통적인 스케일링 법칙은 “더 많은 컴퓨팅 자원(Compute)과 더 큰 모델(파라미터 수), 그리고 더 많은 학습 데이터“가 결합되면 성능이 향상된다는 것.
만약 사용할 새 데이터가 부족해지면 모델 크기만 계속 늘리는 게 과연 효과적인가에 대한 의문이 제기됨.
Dylan은 “아직 영상·대체 데이터 등 활용할 여지가 많고, 합성데이터(synthetic data) 생성으로 부족분을 메울 수 있음“다고 생각.
동영상·비디오 데이터 등 ‘미개척 데이터’
실제로는 텍스트 외에도 엄청난 양의 비디오 정보가 존재하지만, 아직 활용되지 않은 영역이 크다는 반론이 나옴.
텍스트가 압축 효율이 좋기에 그간 학습이 빠르게 진행되었으나, 앞으로는 비디오 데이터 등으로 확장할 수도 있음.
합성데이터(Synthetic Data)의 등장
데이터가 부족하다면, 모델이 직접 합성데이터를 생성해 학습에 활용할 수 있다.
특히 결과의 옳고 그름(기능적 정답)이 명확히 검증 가능한 도메인(예: 코드 컴파일, 수학 증명, 엔지니어링 설계 등)에서 합성데이터가 강력한 성능 향상을 유도할 수 있음.
모델이 여러 경로(rollout)로 결과물을 만들어 보고, 테스트나 컴파일 등 기능적 검증을 통과하는 결과만 ‘정답 데이터‘로 재학습하는 방식.
추론(테스트) 시점의 추가 연산(Reasoning)과 ‘학습‘의 결합
단순히 모델 규모만 키우는 것이 아니라, 모델에게 여러 단계 추론을 시켜 “스스로 데이터를 생성·검증“하게 하고, 그 결과를 다시 훈련에 반영할 수 있음.
이는 사람이 문제를 풀 때 여러 가지 아이디어를 시도하고, 잘못된 시도를 버리며 더 나은 해법을 찾는 과정과 유사.
스케일링 한계가 아직 확실히 증명되지 않음
“스케일링이 log-log 축에서 기하급수적 투자(예: 10배 더 큰 투자)를 요구하긴 하지만, 합성데이터/추론 강화 기법이 초기 단계에 불과하기 때문에 아직은 개선 여지가 많다“는 견해가 제시됨.
데이터가 부족해도, 새로운 ‘데이터 생성·검증’ 방식을 활용해 모델을 계속 발전시킬 수 있다고 봄.
----
“Pretraining이 정말 끝났다면, 왜 더 큰 클러스터를 지을까?”
실제 빅테크의 움직임: 훨씬 큰 클러스터 건설
그러나 현실에선 MS, Meta, 구글 등이 수십만~수백만 GPU 노드의 초대형 클러스터를 계속 증설.
예: meta가 20~30만 GPU 규모, Microsoft가 추가 데이터센터 여러 곳, X(옛 트위터) 등도 대규모 계획 발표.
“만약 정말 사전학습 효과가 다 끝났다면, 왜 이토록 많은 전력·자본을 들여 클러스터를 짓는가?” 하는 의문이 생김.
스케일링의 log·log 곡선과 합성데이터
사전학습은 데이터와 파라미터를 기하급수적으로 늘리면 성능이 개선되지만, 갈수록 투자 대비 성능 향상(마진)이 줄어드는 ‘로그적(log) 성격’을 띤다.
문제는 비싸지더라도 여전히 성장 가능성이 존재한다는 것.
합성데이터(Synthetic data)·추론(Reasoning) 기법이 초기 단계에 불과하여, “데이터 부족“을 극복하고 추가 성능 향상을 이끌 여지가 남아 있음.
경쟁 역학관계 때문에 ’10배 투자‘가 합리적
각 빅테크가 경쟁사의 모델보다 뒤처지지 않으려면, “100,000 노드 → 200,000~300,000 노드“로 클러스터를 키우는 것이 합리적인 선택.
당장 예전처럼 파라미터 수를 단순 10배 늘리는 것이 예전만큼 큰 개선폭을 주진 않아도, “경쟁 우위“를 유지하기 위해선 대규모 투자가 여전히 필요.
합성데이터·새 기법으로 오히려 빠른 속도의 모델 개선 가능
OpenAI 등이 “Orion” 대신 “01" 같은 다른 축의 모델(새로운 접근)을 발표한 것도, 단순히 규모를 키우는 대신 새로운 기법을 도입했기 때문.
일부 전문가들은 “향후 6개월~1년 사이, 합성데이터 생성 + 학습의 새 방법론을 통해 기존 대비 더 빠르게 모델이 발전할 수 있다“고 전망.
데이터센터 투자 증가가 곧 ‘사전학습은 아직 끝나지 않았다’는 증거
실제로 수십 기가와트(GW) 규모 데이터센터가 건설 중이고, 광케이블·전력 인프라에 수십억 달러가 투입되고 있음.
이는 전형적인 “스케일링이 끝났다“는 서사가 현실과 맞지 않음을 보여줌.
“Pre-training + (합성데이터/추론 기반) 후속 학습“을 계속 키우기 위해서라도, 대형 클러스터와 막대한 인프라가 필요하다는 논리.
---
Inference Time Reasoning
추론(Inference) 단계에서의 Reasoning은 계산량이 훨씬 크다
Inference-Time Reasoning이 왜 기존 Pre-training보다 계산량이 큰가?
일반적으로 **사전학습(Pre-training)**은 모델을 한 번 훈련해 놓으면, 이후 추론(Inference)에서는 상대적으로 적은 비용으로 결과를 낼 수 있다.
그러나 **추론 시 Reasoning(중간 사고 과정)**을 수행하는 최신 모델들(예: ‘01 모델‘)은 사용자가 질의할 때마다 내부적으로 수많은 토큰을 생성·평가한다.
예: “간단한 프롬프트 → 1,000개의 답변 토큰“이 아니라, 내부적으로 10,000개 이상의 토큰을 ‘생각‘하며 최종 1,000개만 사용자에게 보여줄 수 있음.
이런 ‘추론 중 사고 과정(Chain-of-thought)’은 기존 사전학습 때 한 번 발생하는 비용과 달리, 매 질의마다 발생하여 계산 부담이 훨씬 커진다.
구체적인 비용 상승 메커니즘
토큰 수 증가: Reasoning 모델은 출력(답변)보다 훨씬 많은 중간 토큰을 생성·버린다. 결과적으로 10~50배 이상의 토큰이 소모될 수 있음.
배치 크기(동시 사용자 수) 감소:
중간 사고 과정이 길어질수록, 한 번에 처리할 수 있는 동시 사용자 수(배치 사이즈)가 크게 줄어든다(예: 1/4~1/5 수준).
따라서 동일 성능을 유지하려면 더 많은 GPU 리소스가 필요해 비용이 증가한다.
예시로, ‘01 모델’은 기존 GPT-4(40) 대비 토큰·메모리 사용량이 폭증하여 단일 질의당 비용이 50배 이상 늘 수도 있다는 시뮬레이션 결과가 언급됨.
이러한 추가 비용을 감당할 가치가 있는가?
고급 Reasoning 모델은 기존 모델이 못했던 작업(예: 복잡한 코딩, 논리적 추론, 문제 해결 등)을 수행할 수 있다.
즉, **“이전에 불가능했던 서비스“**를 제공할 수 있으므로, 공급자는 가격을 높게 책정(토큰당 가격 인상)해도 고객들이 지불 의향이 있다.
실제로 사용된 예시:
오픈AI가 최신 Reasoning 모델(예: 01)을 기업 고객 대상 프라이빗 베타 형태로 제공하면서, 토큰당 비용을 10~50배 더 높게 책정해도 개발 생산성 향상 등 ROI가 충분하다고 판단.
결과적으로 더욱 큰 GPU/메모리 자원 수요
추론 단계에서 매우 긴 컨텍스트(중간 사고 토큰)로 인해 HBM(고대역폭 메모리) 용량, GPU 성능 모두 급증 필요.
개발사나 클라우드 제공자는 “높아진 운영 비용“을 고객(개인·기업)에 일정 부분 전가해도, “새로운 고부가가치 작업“이 가능해진다는 점에서 시장이 형성됨.
반면, 고객센터 등 단순 대규모 요청에는 “가성비 좋은 소형 모델“을 써서 비용을 최적화하는 이원화 전략도 나타남.
반도체 덕질하는 사람은 이런 생각을 하는구나.
스케일링 한계’ vs. 현실
OpenAI의 Ilia가 “인터넷 텍스트 데이터는 유한하다“고 언급, ‘데이터 고갈 → 사전학습 한계‘가 제기.
전통적인 스케일링 법칙은 “더 많은 컴퓨팅 자원(Compute)과 더 큰 모델(파라미터 수), 그리고 더 많은 학습 데이터“가 결합되면 성능이 향상된다는 것.
만약 사용할 새 데이터가 부족해지면 모델 크기만 계속 늘리는 게 과연 효과적인가에 대한 의문이 제기됨.
Dylan은 “아직 영상·대체 데이터 등 활용할 여지가 많고, 합성데이터(synthetic data) 생성으로 부족분을 메울 수 있음“다고 생각.
동영상·비디오 데이터 등 ‘미개척 데이터’
실제로는 텍스트 외에도 엄청난 양의 비디오 정보가 존재하지만, 아직 활용되지 않은 영역이 크다는 반론이 나옴.
텍스트가 압축 효율이 좋기에 그간 학습이 빠르게 진행되었으나, 앞으로는 비디오 데이터 등으로 확장할 수도 있음.
합성데이터(Synthetic Data)의 등장
데이터가 부족하다면, 모델이 직접 합성데이터를 생성해 학습에 활용할 수 있다.
특히 결과의 옳고 그름(기능적 정답)이 명확히 검증 가능한 도메인(예: 코드 컴파일, 수학 증명, 엔지니어링 설계 등)에서 합성데이터가 강력한 성능 향상을 유도할 수 있음.
모델이 여러 경로(rollout)로 결과물을 만들어 보고, 테스트나 컴파일 등 기능적 검증을 통과하는 결과만 ‘정답 데이터‘로 재학습하는 방식.
추론(테스트) 시점의 추가 연산(Reasoning)과 ‘학습‘의 결합
단순히 모델 규모만 키우는 것이 아니라, 모델에게 여러 단계 추론을 시켜 “스스로 데이터를 생성·검증“하게 하고, 그 결과를 다시 훈련에 반영할 수 있음.
이는 사람이 문제를 풀 때 여러 가지 아이디어를 시도하고, 잘못된 시도를 버리며 더 나은 해법을 찾는 과정과 유사.
스케일링 한계가 아직 확실히 증명되지 않음
“스케일링이 log-log 축에서 기하급수적 투자(예: 10배 더 큰 투자)를 요구하긴 하지만, 합성데이터/추론 강화 기법이 초기 단계에 불과하기 때문에 아직은 개선 여지가 많다“는 견해가 제시됨.
데이터가 부족해도, 새로운 ‘데이터 생성·검증’ 방식을 활용해 모델을 계속 발전시킬 수 있다고 봄.
----
“Pretraining이 정말 끝났다면, 왜 더 큰 클러스터를 지을까?”
실제 빅테크의 움직임: 훨씬 큰 클러스터 건설
그러나 현실에선 MS, Meta, 구글 등이 수십만~수백만 GPU 노드의 초대형 클러스터를 계속 증설.
예: meta가 20~30만 GPU 규모, Microsoft가 추가 데이터센터 여러 곳, X(옛 트위터) 등도 대규모 계획 발표.
“만약 정말 사전학습 효과가 다 끝났다면, 왜 이토록 많은 전력·자본을 들여 클러스터를 짓는가?” 하는 의문이 생김.
스케일링의 log·log 곡선과 합성데이터
사전학습은 데이터와 파라미터를 기하급수적으로 늘리면 성능이 개선되지만, 갈수록 투자 대비 성능 향상(마진)이 줄어드는 ‘로그적(log) 성격’을 띤다.
문제는 비싸지더라도 여전히 성장 가능성이 존재한다는 것.
합성데이터(Synthetic data)·추론(Reasoning) 기법이 초기 단계에 불과하여, “데이터 부족“을 극복하고 추가 성능 향상을 이끌 여지가 남아 있음.
경쟁 역학관계 때문에 ’10배 투자‘가 합리적
각 빅테크가 경쟁사의 모델보다 뒤처지지 않으려면, “100,000 노드 → 200,000~300,000 노드“로 클러스터를 키우는 것이 합리적인 선택.
당장 예전처럼 파라미터 수를 단순 10배 늘리는 것이 예전만큼 큰 개선폭을 주진 않아도, “경쟁 우위“를 유지하기 위해선 대규모 투자가 여전히 필요.
합성데이터·새 기법으로 오히려 빠른 속도의 모델 개선 가능
OpenAI 등이 “Orion” 대신 “01" 같은 다른 축의 모델(새로운 접근)을 발표한 것도, 단순히 규모를 키우는 대신 새로운 기법을 도입했기 때문.
일부 전문가들은 “향후 6개월~1년 사이, 합성데이터 생성 + 학습의 새 방법론을 통해 기존 대비 더 빠르게 모델이 발전할 수 있다“고 전망.
데이터센터 투자 증가가 곧 ‘사전학습은 아직 끝나지 않았다’는 증거
실제로 수십 기가와트(GW) 규모 데이터센터가 건설 중이고, 광케이블·전력 인프라에 수십억 달러가 투입되고 있음.
이는 전형적인 “스케일링이 끝났다“는 서사가 현실과 맞지 않음을 보여줌.
“Pre-training + (합성데이터/추론 기반) 후속 학습“을 계속 키우기 위해서라도, 대형 클러스터와 막대한 인프라가 필요하다는 논리.
---
Inference Time Reasoning
추론(Inference) 단계에서의 Reasoning은 계산량이 훨씬 크다
Inference-Time Reasoning이 왜 기존 Pre-training보다 계산량이 큰가?
일반적으로 **사전학습(Pre-training)**은 모델을 한 번 훈련해 놓으면, 이후 추론(Inference)에서는 상대적으로 적은 비용으로 결과를 낼 수 있다.
그러나 **추론 시 Reasoning(중간 사고 과정)**을 수행하는 최신 모델들(예: ‘01 모델‘)은 사용자가 질의할 때마다 내부적으로 수많은 토큰을 생성·평가한다.
예: “간단한 프롬프트 → 1,000개의 답변 토큰“이 아니라, 내부적으로 10,000개 이상의 토큰을 ‘생각‘하며 최종 1,000개만 사용자에게 보여줄 수 있음.
이런 ‘추론 중 사고 과정(Chain-of-thought)’은 기존 사전학습 때 한 번 발생하는 비용과 달리, 매 질의마다 발생하여 계산 부담이 훨씬 커진다.
구체적인 비용 상승 메커니즘
토큰 수 증가: Reasoning 모델은 출력(답변)보다 훨씬 많은 중간 토큰을 생성·버린다. 결과적으로 10~50배 이상의 토큰이 소모될 수 있음.
배치 크기(동시 사용자 수) 감소:
중간 사고 과정이 길어질수록, 한 번에 처리할 수 있는 동시 사용자 수(배치 사이즈)가 크게 줄어든다(예: 1/4~1/5 수준).
따라서 동일 성능을 유지하려면 더 많은 GPU 리소스가 필요해 비용이 증가한다.
예시로, ‘01 모델’은 기존 GPT-4(40) 대비 토큰·메모리 사용량이 폭증하여 단일 질의당 비용이 50배 이상 늘 수도 있다는 시뮬레이션 결과가 언급됨.
이러한 추가 비용을 감당할 가치가 있는가?
고급 Reasoning 모델은 기존 모델이 못했던 작업(예: 복잡한 코딩, 논리적 추론, 문제 해결 등)을 수행할 수 있다.
즉, **“이전에 불가능했던 서비스“**를 제공할 수 있으므로, 공급자는 가격을 높게 책정(토큰당 가격 인상)해도 고객들이 지불 의향이 있다.
실제로 사용된 예시:
오픈AI가 최신 Reasoning 모델(예: 01)을 기업 고객 대상 프라이빗 베타 형태로 제공하면서, 토큰당 비용을 10~50배 더 높게 책정해도 개발 생산성 향상 등 ROI가 충분하다고 판단.
결과적으로 더욱 큰 GPU/메모리 자원 수요
추론 단계에서 매우 긴 컨텍스트(중간 사고 토큰)로 인해 HBM(고대역폭 메모리) 용량, GPU 성능 모두 급증 필요.
개발사나 클라우드 제공자는 “높아진 운영 비용“을 고객(개인·기업)에 일정 부분 전가해도, “새로운 고부가가치 작업“이 가능해진다는 점에서 시장이 형성됨.
반면, 고객센터 등 단순 대규모 요청에는 “가성비 좋은 소형 모델“을 써서 비용을 최적화하는 이원화 전략도 나타남.
YouTube
AI Semiconductor Landscape feat. Dylan Patel | BG2 w/ Bill Gurley & Brad Gerstner
Open Source bi-weekly convo w/ Bill Gurley and Brad Gerstner on all things tech, markets, investing & capitalism. This week they are joined by Dylan Patel, Founder & Chief Analyst at SemiAnalysis, to discuss origins of SemiAnalysis, Google's AI workload,…
앞으로의 전망
현재 Reasoning 모델은 초기 단계이지만, 추가적으로 학습(Reasoning 강화)에 투자할 여지가 크다.
모델이 새롭게 “합성데이터“나 “추론 중간 과정“을 더 많이 활용해 스스로 학습할 수 있게 되면, 향후 6~12개월 사이 성능·활용 범위가 더욱 급상승할 가능성이 높음.
이러한 고급 Reasoning 모델 수요는 곧 데이터센터·GPU 인프라 확장을 더욱 촉진하고, 엔터프라이즈 시장에서의 수요도 예상을 넘어 성장할 수 있다는 분석이 뒤따름.
-----
NVIDIA 점유율 vs. Google TPU
(타 빅테크 제외 시) 글로벌 AI 워크로드에서 NVIDIA가 98% 수준 점유.
그러나 Google 내부 생산성(검색·광고) AI 워크로드의 상당 부분은 TPU를 사용하므로, 전체적으로 보면 대략 70% 수준으로 추산됨.
Google TPU 활용
Google은 대규모 검색·광고 등 자기 워크로드는 TPU를 주로 활용하지만, 클라우드 외부 고객에게는 주로 NVIDIA GPU를 빌려줌.
즉, 내부용=TPU, 외부(Cloud)=NVIDIA라는 이원화된 구조.
1. NVIDIA의 Edge (세 가지 경쟁 우위)
소프트웨어 생태계
대부분의 반도체 기업은 소프트웨어 역량이 미흡하지만, NVIDIA는 CUDA 등 강력한 SW 스택을 보유.
고급 라이브러리·드라이버·분산 학습 툴·Fleet Management 등이 체계적으로 갖춰져 있어, AI 모델 개발·훈련·추론 과정의 생산성을 대폭 향상시킴.
하드웨어(칩) 설계·공급망 추진력
최신 기술(공정·패키징·냉각·전력관리 등)을 누구보다 빠르게 양산화하여 매년 새로운 아키텍처(GPU) 출시.
엔비디아는 Mellanox(네트워킹) 인수로 초고속 인터커넥트(NVLink/NVSwitch)까지 통합 솔루션을 완비.
“칩만” 제공하는 수준이 아닌, **랙 단위 시스템(예: Blackwell 랙·DGX 서버)**까지 설계·판매해 고객 부담을 줄인다.
네트워킹 및 시스템 설계
대규모 모델(수천억~수조 개 파라미터)을 구동하려면 여러 GPU를 고대역폭으로 연결해야 함.
NVLink와 NVSwitch, 그리고 Mellanox 기술로 큰 규모의 클러스터를 단일 슈퍼컴처럼 구성.
이는 AMD·커스텀 Asic 등 경쟁자들이 쉽게 구축하기 어려운 강력한 경쟁 우위가 됨.
종합적으로, 소프트웨어 + 최신칩 + 네트워킹이 결합된 ‘3두용(three-headed dragon)’ 구조가 NVIDIA의 에지(Edge).
2. Incremental Differentiation (점진적 차별화)
공급망·생태계를 밀어붙이는 실행력
엔비디아는 공급망 전단계(메모리, 옵틱스, 전력, 쿨링 등)와 긴밀히 협력해 새로운 기술을 연간 또는 그보다 빠른 주기로 시장에 선도적으로 내놓는다.
예: Blackwell, 후속 아키텍처, 랙 스케일 시스템 등을 ‘매년’ 수준으로 개선·출시해 경쟁사들이 따라잡기 어렵도록 함.
“현재의 상황을 유지하는 것은 곧 도태“라는 편집증적 기조를 가진 창업자
CEO 젠슨 황의 전략: 경쟁사가 조금이라도 틈을 보이면 추월할 수 있으므로, 끊임없이 성능·TCO를 5~10배씩 높이는 것을 목표로 삼음.
이를 위해 소프트웨어 최적화, 시스템 설계, 신규 칩 개발 속도를 모두 독보적으로 빠른 주기로 실행.
3. 잠재적 취약점(Potential Vulnerabilities)
초대형 고객(하이퍼스케일러)의 자체 칩 전환 가능
MS, Amazon, Google, Meta 등이 TPU·Tranium·커스텀 Asic을 개발·도입하면, 일부 워크로드에서 NVIDIA 의존도가 줄어들 수 있음.
특히 추론(Inference)에서는 CUDA 의존도가 비교적 낮아, 성능·가격 경쟁력이 비슷해지면 대체 위험.
고성능 하드웨어에만 의존하면 경쟁사도 빠르게 추격
점유율을 지키기 위해선 소프트웨어·시스템 통합 우위를 유지해야 하며, 엔비디아가 잠시라도 속도를 늦추면 AMD나 커스텀 칩 업체가 치고 들어올 수 있음.
‘가격 인하’와 마진 압박
AI 시장 규모가 커지면서 Amazon, Google TPU, AMD GPU, 기타 Asic 등이 성능을 높이거나 가격을 낮추면, 엔비디아는 경쟁력 유지를 위해 마진을 일부 희생해야 할 수 있음(이미 Blackwell 세대에서 마진 축소 움직임 언급).
4. GPU로의 전환이 데이터센터에 미치는 영향
CPU→GPU 기반 아키텍처로 재편
AI 대규모 워크로드(LLM 등)는 CPU로 처리하기엔 비효율적이므로, 데이터센터에 GPU 클러스터가 대거 도입되고 있음.
전세계 클라우드사는 ‘CPU 서버’를 줄이는 대신, GPU 혹은 다른 가속기 서버를 빠르게 증설하며 전체 전력·쿨링·네트워킹 설계를 새로 짜고 있음.
데이터센터 전력·인프라 증설
수백·수천 대 GPU가 한 곳에 집적되면 전력(기가와트 단위), 쿨링, 광케이블(파이버) 등 인프라 투자가 급증.
기존 CPU 서버보다 훨씬 높은 전력 밀도를 요구하므로, 데이터센터 규모나 전력 공급, 공간 설계가 대폭 바뀜.
엔비디아가 보는 ‘CPU 대체’ 시나리오
젠슨 황은 “기존 CPU 서버를 GPU 가속기로 대체하면, 전력·성능 효율을 높이고 고급 AI 워크로드까지 수행할 수 있어 1조 달러 이상의 시장 기회“라고 주장.
완전 대체라기보다는, 대규모 AI 수행을 위해 CPU 서버 vs. GPU 서버의 균형을 새롭게 짜는 과정으로 해석됨.
----
경쟁상황
1. 칩 경쟁 구도(Chip Competition) 개요
NVIDIA 독주가 분명하지만, 하이퍼스케일러(예: MS, Google, Amazon)나 AMD, 여러 스타트업(Asic) 등이 저마다 전략을 펼치며 추격 중.
주된 목표: 엔비디아 수준의 성능+에코시스템(소프트웨어, 네트워킹, 랙 스케일 시스템 등)을 얼마나 빠르고 저렴하게 구현할 수 있는가.
2. AMD
장점
실리콘 설계 역량: 인텔을 따라잡아 x86 시장을 크게 키운 경험이 있을 만큼 하드웨어적 기술력은 탄탄함.
GPU 자체 성능이나 HBM 활용 등은 우수하여, 일정 부분 엔비디아와 경쟁 가능.
약점
소프트웨어·시스템 생태계 부족: CUDA 같은 폭넓은 라이브러리와 대규모 분산 학습·최적화 툴을 갖추지 못함.
시스템 레벨 설계(랙 스케일, 네트워킹 등)에 대한 경험/투자가 미흡.
자체 내부 GPU 클러스터를 대규모로 운용해 소프트웨어를 치밀하게 개발·테스트하지 않음(반면 엔비디아는 슈퍼컴 다수 보유).
시장 전망
MS, Meta 등이 AMD에 소프트웨어·최적화 측면에서 일정 부분 협력 중이나, 엔비디아 수준 속도/생태계를 갖추긴 어려움.
2024~25년에도 GPU 매출은 늘겠지만, 엔비디아와의 격차가 크게 좁혀질 것이라는 기대는 낮음.
3. Google TPU
시스템·인프라 관점에서 강점
개별 TPU 칩만 보면 성능이 극적이지 않아도, Broadcom 등과 협력해 2018년부터 대규모 랙 스케일 아키텍처를 구축해왔다.
구글 데이터센터 내부에선 검색·광고·유튜브 등 핵심 AI 워크로드를 TPU로 돌려 대규모 실전 검증을 이미 진행.
외부 클라우드 임대 시장에서는 약점
소프트웨어 스택(특히 딥마인드 내부 툴)이 비공개인 경우가 많아, 외부 고객이 TPU를 쓰기 어렵고 지원도 제한적.
구글 클라우드의 GPU 임대료도 비싸지만, TPU 임대료 역시 협상 여지가 적어 시장 확대가 쉽지 않음.
구글은 클라우드 GPU 판매보다 자체 워크로드 운영(예: 광고, 검색)에 TPU를 더 많이 활용해 수익 창출.
향후 전망
Gemini(차세대 모델) 등 Google의 AI 서비스가 성공한다면, 간접적으로 TPU 사용량도 커질 수 있음.
다만 오픈 클라우드 시장에서 TPU가 엔비디아 GPU를 대체하기는 쉽지 않다는 평가.
4. Cerebras, Grok (스타트업 칩)
Cerebras
웨이퍼 스케일 엔진(WSE) 같은 혁신적 하드웨어로 주목.
특정 HPC·연구 분야에서 좋은 성능을 낼 수 있지만, 범용 생태계·대규모 소프트웨어 스택이 부족해 엔터프라이즈·클라우드 전반 대체는 제한적.
현재 Reasoning 모델은 초기 단계이지만, 추가적으로 학습(Reasoning 강화)에 투자할 여지가 크다.
모델이 새롭게 “합성데이터“나 “추론 중간 과정“을 더 많이 활용해 스스로 학습할 수 있게 되면, 향후 6~12개월 사이 성능·활용 범위가 더욱 급상승할 가능성이 높음.
이러한 고급 Reasoning 모델 수요는 곧 데이터센터·GPU 인프라 확장을 더욱 촉진하고, 엔터프라이즈 시장에서의 수요도 예상을 넘어 성장할 수 있다는 분석이 뒤따름.
-----
NVIDIA 점유율 vs. Google TPU
(타 빅테크 제외 시) 글로벌 AI 워크로드에서 NVIDIA가 98% 수준 점유.
그러나 Google 내부 생산성(검색·광고) AI 워크로드의 상당 부분은 TPU를 사용하므로, 전체적으로 보면 대략 70% 수준으로 추산됨.
Google TPU 활용
Google은 대규모 검색·광고 등 자기 워크로드는 TPU를 주로 활용하지만, 클라우드 외부 고객에게는 주로 NVIDIA GPU를 빌려줌.
즉, 내부용=TPU, 외부(Cloud)=NVIDIA라는 이원화된 구조.
1. NVIDIA의 Edge (세 가지 경쟁 우위)
소프트웨어 생태계
대부분의 반도체 기업은 소프트웨어 역량이 미흡하지만, NVIDIA는 CUDA 등 강력한 SW 스택을 보유.
고급 라이브러리·드라이버·분산 학습 툴·Fleet Management 등이 체계적으로 갖춰져 있어, AI 모델 개발·훈련·추론 과정의 생산성을 대폭 향상시킴.
하드웨어(칩) 설계·공급망 추진력
최신 기술(공정·패키징·냉각·전력관리 등)을 누구보다 빠르게 양산화하여 매년 새로운 아키텍처(GPU) 출시.
엔비디아는 Mellanox(네트워킹) 인수로 초고속 인터커넥트(NVLink/NVSwitch)까지 통합 솔루션을 완비.
“칩만” 제공하는 수준이 아닌, **랙 단위 시스템(예: Blackwell 랙·DGX 서버)**까지 설계·판매해 고객 부담을 줄인다.
네트워킹 및 시스템 설계
대규모 모델(수천억~수조 개 파라미터)을 구동하려면 여러 GPU를 고대역폭으로 연결해야 함.
NVLink와 NVSwitch, 그리고 Mellanox 기술로 큰 규모의 클러스터를 단일 슈퍼컴처럼 구성.
이는 AMD·커스텀 Asic 등 경쟁자들이 쉽게 구축하기 어려운 강력한 경쟁 우위가 됨.
종합적으로, 소프트웨어 + 최신칩 + 네트워킹이 결합된 ‘3두용(three-headed dragon)’ 구조가 NVIDIA의 에지(Edge).
2. Incremental Differentiation (점진적 차별화)
공급망·생태계를 밀어붙이는 실행력
엔비디아는 공급망 전단계(메모리, 옵틱스, 전력, 쿨링 등)와 긴밀히 협력해 새로운 기술을 연간 또는 그보다 빠른 주기로 시장에 선도적으로 내놓는다.
예: Blackwell, 후속 아키텍처, 랙 스케일 시스템 등을 ‘매년’ 수준으로 개선·출시해 경쟁사들이 따라잡기 어렵도록 함.
“현재의 상황을 유지하는 것은 곧 도태“라는 편집증적 기조를 가진 창업자
CEO 젠슨 황의 전략: 경쟁사가 조금이라도 틈을 보이면 추월할 수 있으므로, 끊임없이 성능·TCO를 5~10배씩 높이는 것을 목표로 삼음.
이를 위해 소프트웨어 최적화, 시스템 설계, 신규 칩 개발 속도를 모두 독보적으로 빠른 주기로 실행.
3. 잠재적 취약점(Potential Vulnerabilities)
초대형 고객(하이퍼스케일러)의 자체 칩 전환 가능
MS, Amazon, Google, Meta 등이 TPU·Tranium·커스텀 Asic을 개발·도입하면, 일부 워크로드에서 NVIDIA 의존도가 줄어들 수 있음.
특히 추론(Inference)에서는 CUDA 의존도가 비교적 낮아, 성능·가격 경쟁력이 비슷해지면 대체 위험.
고성능 하드웨어에만 의존하면 경쟁사도 빠르게 추격
점유율을 지키기 위해선 소프트웨어·시스템 통합 우위를 유지해야 하며, 엔비디아가 잠시라도 속도를 늦추면 AMD나 커스텀 칩 업체가 치고 들어올 수 있음.
‘가격 인하’와 마진 압박
AI 시장 규모가 커지면서 Amazon, Google TPU, AMD GPU, 기타 Asic 등이 성능을 높이거나 가격을 낮추면, 엔비디아는 경쟁력 유지를 위해 마진을 일부 희생해야 할 수 있음(이미 Blackwell 세대에서 마진 축소 움직임 언급).
4. GPU로의 전환이 데이터센터에 미치는 영향
CPU→GPU 기반 아키텍처로 재편
AI 대규모 워크로드(LLM 등)는 CPU로 처리하기엔 비효율적이므로, 데이터센터에 GPU 클러스터가 대거 도입되고 있음.
전세계 클라우드사는 ‘CPU 서버’를 줄이는 대신, GPU 혹은 다른 가속기 서버를 빠르게 증설하며 전체 전력·쿨링·네트워킹 설계를 새로 짜고 있음.
데이터센터 전력·인프라 증설
수백·수천 대 GPU가 한 곳에 집적되면 전력(기가와트 단위), 쿨링, 광케이블(파이버) 등 인프라 투자가 급증.
기존 CPU 서버보다 훨씬 높은 전력 밀도를 요구하므로, 데이터센터 규모나 전력 공급, 공간 설계가 대폭 바뀜.
엔비디아가 보는 ‘CPU 대체’ 시나리오
젠슨 황은 “기존 CPU 서버를 GPU 가속기로 대체하면, 전력·성능 효율을 높이고 고급 AI 워크로드까지 수행할 수 있어 1조 달러 이상의 시장 기회“라고 주장.
완전 대체라기보다는, 대규모 AI 수행을 위해 CPU 서버 vs. GPU 서버의 균형을 새롭게 짜는 과정으로 해석됨.
----
경쟁상황
1. 칩 경쟁 구도(Chip Competition) 개요
NVIDIA 독주가 분명하지만, 하이퍼스케일러(예: MS, Google, Amazon)나 AMD, 여러 스타트업(Asic) 등이 저마다 전략을 펼치며 추격 중.
주된 목표: 엔비디아 수준의 성능+에코시스템(소프트웨어, 네트워킹, 랙 스케일 시스템 등)을 얼마나 빠르고 저렴하게 구현할 수 있는가.
2. AMD
장점
실리콘 설계 역량: 인텔을 따라잡아 x86 시장을 크게 키운 경험이 있을 만큼 하드웨어적 기술력은 탄탄함.
GPU 자체 성능이나 HBM 활용 등은 우수하여, 일정 부분 엔비디아와 경쟁 가능.
약점
소프트웨어·시스템 생태계 부족: CUDA 같은 폭넓은 라이브러리와 대규모 분산 학습·최적화 툴을 갖추지 못함.
시스템 레벨 설계(랙 스케일, 네트워킹 등)에 대한 경험/투자가 미흡.
자체 내부 GPU 클러스터를 대규모로 운용해 소프트웨어를 치밀하게 개발·테스트하지 않음(반면 엔비디아는 슈퍼컴 다수 보유).
시장 전망
MS, Meta 등이 AMD에 소프트웨어·최적화 측면에서 일정 부분 협력 중이나, 엔비디아 수준 속도/생태계를 갖추긴 어려움.
2024~25년에도 GPU 매출은 늘겠지만, 엔비디아와의 격차가 크게 좁혀질 것이라는 기대는 낮음.
3. Google TPU
시스템·인프라 관점에서 강점
개별 TPU 칩만 보면 성능이 극적이지 않아도, Broadcom 등과 협력해 2018년부터 대규모 랙 스케일 아키텍처를 구축해왔다.
구글 데이터센터 내부에선 검색·광고·유튜브 등 핵심 AI 워크로드를 TPU로 돌려 대규모 실전 검증을 이미 진행.
외부 클라우드 임대 시장에서는 약점
소프트웨어 스택(특히 딥마인드 내부 툴)이 비공개인 경우가 많아, 외부 고객이 TPU를 쓰기 어렵고 지원도 제한적.
구글 클라우드의 GPU 임대료도 비싸지만, TPU 임대료 역시 협상 여지가 적어 시장 확대가 쉽지 않음.
구글은 클라우드 GPU 판매보다 자체 워크로드 운영(예: 광고, 검색)에 TPU를 더 많이 활용해 수익 창출.
향후 전망
Gemini(차세대 모델) 등 Google의 AI 서비스가 성공한다면, 간접적으로 TPU 사용량도 커질 수 있음.
다만 오픈 클라우드 시장에서 TPU가 엔비디아 GPU를 대체하기는 쉽지 않다는 평가.
4. Cerebras, Grok (스타트업 칩)
Cerebras
웨이퍼 스케일 엔진(WSE) 같은 혁신적 하드웨어로 주목.
특정 HPC·연구 분야에서 좋은 성능을 낼 수 있지만, 범용 생태계·대규모 소프트웨어 스택이 부족해 엔터프라이즈·클라우드 전반 대체는 제한적.
YouTube
AI Semiconductor Landscape feat. Dylan Patel | BG2 w/ Bill Gurley & Brad Gerstner
Open Source bi-weekly convo w/ Bill Gurley and Brad Gerstner on all things tech, markets, investing & capitalism. This week they are joined by Dylan Patel, Founder & Chief Analyst at SemiAnalysis, to discuss origins of SemiAnalysis, Google's AI workload,…
Grok
스파스(sparse) 연산 최적화, 저전력 특화 등 독자 설계를 내세움.
고성능 대규모 클러스터보다 특화된 분야(엣지 컴퓨팅 등)로 진출 가능성이 있지만, 시장 전체에서 엔비디아 대항마가 되기엔 자본·생태계가 부족.
총평: 스타트업 칩은 기술적 혁신이 있으나, 소프트웨어·대규모 시스템 생태계 구축이 어려워 본격 대체재가 되긴 힘들다는 평.
5. Amazon’s Tranium
“Amazon Basics TPU”
아마존이 자체 설계한 AI 칩(Tranium, Inferentia)은 비교적 단순하고 저비용 구조로 대규모 환경에 최적화.
많은 메모리(HBM)와 높은 메모리 대역폭을 저렴하게 제공해 TCO를 낮춤.
네트워킹·칩 자체 효율은 엔비디아 대비 떨어지지만, 원가 구조와 자체 인프라로 가격 경쟁력 확보.
대형 클러스터 구축
AWS + Anthropic이 400,000개 이상의 Tranium 칩을 모은 슈퍼컴퓨터를 구축할 계획.
트레이닝(Training) 목적 대규모 클러스터에는 적합할 수 있으나, 추론(실시간 응답)용으로는 분산 배치가 필요해 단점도 존재.
전망
효율·성능 면에선 엔비디아에 미치지 못하나, “AWS 에코시스템 + 저렴한 비용“이라는 장점으로 특정 고객군에 매력.
아마존은 엔비디아 의존도를 줄이고 싶어 하며, 내부적으로 Tranium을 통해 점차 경험·생태계를 확장하는 중.
----
What is future?
초고가 모델 vs. 저가 모델: 이중 시장 구조
대형 모델(예: ‘01 모델’ 등)은 뛰어난 성능(Reasoning, 생산성 향상)을 제공하지만, 비용이 매우 높음.
작은 모델(예: Llama 7B, ‘40 mini’)은 훨씬 저렴하게 운영 가능하며, 이 때문에 오픈소스·네오클라우드 등에서 경쟁이 매우 치열해지고 있음.
큰 모델이 압도적 성능으로 고부가가치 업무(예: 엔지니어링, 고급 코딩) 처리에 사용되면, 높은 가격을 매겨도 기업 입장에서 비용 대비 효용이 높아 수요가 꾸준함.
한편, 대규모 고객서비스(콜센터 등)처럼 “최고 성능이 필요치 않은” 곳은 작은 모델이나 오픈소스 모델로 비용 최적화를 추구할 수 있음.
경쟁 구도: “최고 모델 vs. 값싼 모델”
최고 성능 모델을 개발·판매하려면, R&D·GPU 인프라·SW 최적화 등에 막대한 자본이 필요.
만약 이를 실패하거나, 고객이 지불할 가치(ROI)를 못 증명하면 경쟁에서 도태됨(“race to the bottom”).
실제 API 시장에서 오픈소스 모델·다양한 스타트업이 등장하여 가격 인하를 유도하지만, 가장 뛰어난 모델을 제공할 수 있는 기업은 소수에 불과함.
고객(엔터프라이즈) 측의 의사결정
최고 성능 모델(예: 오픈AI 01, Anthropics 고급 모델 등)에 지불해 생산성을 20~50% 높일 수 있다면, 연봉이 높은 개발자·분석가 비용 절감 효과가 커서 투자 가치가 높음.
따라서 “가장 비싼 모델이 결과적으로 더 싸게 먹힌다“는 논리가 성립 가능(고급 지식 노동 대체/보조).
반면 단순 질의나 대량 트래픽 처리에는 작은 모델이 합리적.
차기(2025~2026) 전망
**하이퍼스케일러(구글, MS, 메타 등)**의 투자 기조
2024~2025에는 대규모 데이터센터·GPU 투자가 계속될 것으로 보이지만, 2026년쯤 “과잉 투자 or 모델 발전 한계” 여부가 분수령이 될 수 있음.
Broadcom, Marvell 등 커스텀 Asic, 네트워킹 솔루션 업체들이 부상 중.
예: Meta는 추천시스템용 커스텀 칩, AWS(아마존), 구글, MS 등 자체 칩도 늘어나는 추세.
이들이 실제 상품화·양산에 성공할 경우, 엔비디아 독주를 어느 정도 분산시킬 가능성 있음.
Neo Cloud(네오클라우드) 업체들의 정리(Consolidation)
전 세계적으로 80여 개 네오클라우드(소규모 AI 클라우드) 중 대부분이 가격 인하 경쟁에 밀려 사라질 것이며, 5~10곳만 살아남을 것으로 예측.
자본 유입 여부
중동·아시아 주권 펀드 등 막대한 자금이 아직 본격적으로 들어오지 않았으며, 향후 대규모 투자로 이어질 가능성 있음.
모델 발전이 지속되면, 수익 가능성을 본 투자자들이 더 큰 자금을 투입하며 시장 열기를 지속시킬 수 있음.
핵심 변수: 모델 품질과 실제 매출(Revenue) 성장
모델 성능이 빠르게 개선되면, 하이퍼스케일러들이 더 큰 규모로 투자하면서도 ROI를 맞출 가능성이 큼.
그러나 모델 발전 속도가 정체되거나, 매출 성장률이 기대만큼 따라주지 못하면 ‘투자 과잉’ 조정이 올 수 있음.
결국 **“GPU·데이터센터 투자 = 미래 매출 기대치“**라는 논리로, 기업들은 향후 2~3년간 경쟁적으로 설비 투자를 늘리는 중.
결론
AI 모델 시장은 “최고 성능“을 추구하는 소수의 대형 기업과, “비용 효율적 접근“을 노리는 다수 플레이어로 양분될 전망.
2024~2025년엔 대규모 투자·확장이 이어지겠지만, 2026년 전후로 모델 발전 한계·수익성 여부를 둘러싼 ‘대규모 조정’ 혹은 ‘계속 상승’ 시나리오가 갈릴 가능성이 높음.
투자·기술 발전 모두 모델 성능 개선과 매출 증대가 얼마나 일치하느냐가 관건으로, 업계는 여전히 ‘과잉 투자 vs. 성장 지속’ 사이에서 치열한 경쟁을 벌일 것으로 보임.
스파스(sparse) 연산 최적화, 저전력 특화 등 독자 설계를 내세움.
고성능 대규모 클러스터보다 특화된 분야(엣지 컴퓨팅 등)로 진출 가능성이 있지만, 시장 전체에서 엔비디아 대항마가 되기엔 자본·생태계가 부족.
총평: 스타트업 칩은 기술적 혁신이 있으나, 소프트웨어·대규모 시스템 생태계 구축이 어려워 본격 대체재가 되긴 힘들다는 평.
5. Amazon’s Tranium
“Amazon Basics TPU”
아마존이 자체 설계한 AI 칩(Tranium, Inferentia)은 비교적 단순하고 저비용 구조로 대규모 환경에 최적화.
많은 메모리(HBM)와 높은 메모리 대역폭을 저렴하게 제공해 TCO를 낮춤.
네트워킹·칩 자체 효율은 엔비디아 대비 떨어지지만, 원가 구조와 자체 인프라로 가격 경쟁력 확보.
대형 클러스터 구축
AWS + Anthropic이 400,000개 이상의 Tranium 칩을 모은 슈퍼컴퓨터를 구축할 계획.
트레이닝(Training) 목적 대규모 클러스터에는 적합할 수 있으나, 추론(실시간 응답)용으로는 분산 배치가 필요해 단점도 존재.
전망
효율·성능 면에선 엔비디아에 미치지 못하나, “AWS 에코시스템 + 저렴한 비용“이라는 장점으로 특정 고객군에 매력.
아마존은 엔비디아 의존도를 줄이고 싶어 하며, 내부적으로 Tranium을 통해 점차 경험·생태계를 확장하는 중.
----
What is future?
초고가 모델 vs. 저가 모델: 이중 시장 구조
대형 모델(예: ‘01 모델’ 등)은 뛰어난 성능(Reasoning, 생산성 향상)을 제공하지만, 비용이 매우 높음.
작은 모델(예: Llama 7B, ‘40 mini’)은 훨씬 저렴하게 운영 가능하며, 이 때문에 오픈소스·네오클라우드 등에서 경쟁이 매우 치열해지고 있음.
큰 모델이 압도적 성능으로 고부가가치 업무(예: 엔지니어링, 고급 코딩) 처리에 사용되면, 높은 가격을 매겨도 기업 입장에서 비용 대비 효용이 높아 수요가 꾸준함.
한편, 대규모 고객서비스(콜센터 등)처럼 “최고 성능이 필요치 않은” 곳은 작은 모델이나 오픈소스 모델로 비용 최적화를 추구할 수 있음.
경쟁 구도: “최고 모델 vs. 값싼 모델”
최고 성능 모델을 개발·판매하려면, R&D·GPU 인프라·SW 최적화 등에 막대한 자본이 필요.
만약 이를 실패하거나, 고객이 지불할 가치(ROI)를 못 증명하면 경쟁에서 도태됨(“race to the bottom”).
실제 API 시장에서 오픈소스 모델·다양한 스타트업이 등장하여 가격 인하를 유도하지만, 가장 뛰어난 모델을 제공할 수 있는 기업은 소수에 불과함.
고객(엔터프라이즈) 측의 의사결정
최고 성능 모델(예: 오픈AI 01, Anthropics 고급 모델 등)에 지불해 생산성을 20~50% 높일 수 있다면, 연봉이 높은 개발자·분석가 비용 절감 효과가 커서 투자 가치가 높음.
따라서 “가장 비싼 모델이 결과적으로 더 싸게 먹힌다“는 논리가 성립 가능(고급 지식 노동 대체/보조).
반면 단순 질의나 대량 트래픽 처리에는 작은 모델이 합리적.
차기(2025~2026) 전망
**하이퍼스케일러(구글, MS, 메타 등)**의 투자 기조
2024~2025에는 대규모 데이터센터·GPU 투자가 계속될 것으로 보이지만, 2026년쯤 “과잉 투자 or 모델 발전 한계” 여부가 분수령이 될 수 있음.
Broadcom, Marvell 등 커스텀 Asic, 네트워킹 솔루션 업체들이 부상 중.
예: Meta는 추천시스템용 커스텀 칩, AWS(아마존), 구글, MS 등 자체 칩도 늘어나는 추세.
이들이 실제 상품화·양산에 성공할 경우, 엔비디아 독주를 어느 정도 분산시킬 가능성 있음.
Neo Cloud(네오클라우드) 업체들의 정리(Consolidation)
전 세계적으로 80여 개 네오클라우드(소규모 AI 클라우드) 중 대부분이 가격 인하 경쟁에 밀려 사라질 것이며, 5~10곳만 살아남을 것으로 예측.
자본 유입 여부
중동·아시아 주권 펀드 등 막대한 자금이 아직 본격적으로 들어오지 않았으며, 향후 대규모 투자로 이어질 가능성 있음.
모델 발전이 지속되면, 수익 가능성을 본 투자자들이 더 큰 자금을 투입하며 시장 열기를 지속시킬 수 있음.
핵심 변수: 모델 품질과 실제 매출(Revenue) 성장
모델 성능이 빠르게 개선되면, 하이퍼스케일러들이 더 큰 규모로 투자하면서도 ROI를 맞출 가능성이 큼.
그러나 모델 발전 속도가 정체되거나, 매출 성장률이 기대만큼 따라주지 못하면 ‘투자 과잉’ 조정이 올 수 있음.
결국 **“GPU·데이터센터 투자 = 미래 매출 기대치“**라는 논리로, 기업들은 향후 2~3년간 경쟁적으로 설비 투자를 늘리는 중.
결론
AI 모델 시장은 “최고 성능“을 추구하는 소수의 대형 기업과, “비용 효율적 접근“을 노리는 다수 플레이어로 양분될 전망.
2024~2025년엔 대규모 투자·확장이 이어지겠지만, 2026년 전후로 모델 발전 한계·수익성 여부를 둘러싼 ‘대규모 조정’ 혹은 ‘계속 상승’ 시나리오가 갈릴 가능성이 높음.
투자·기술 발전 모두 모델 성능 개선과 매출 증대가 얼마나 일치하느냐가 관건으로, 업계는 여전히 ‘과잉 투자 vs. 성장 지속’ 사이에서 치열한 경쟁을 벌일 것으로 보임.
YouTube
AI Semiconductor Landscape feat. Dylan Patel | BG2 w/ Bill Gurley & Brad Gerstner
Open Source bi-weekly convo w/ Bill Gurley and Brad Gerstner on all things tech, markets, investing & capitalism. This week they are joined by Dylan Patel, Founder & Chief Analyst at SemiAnalysis, to discuss origins of SemiAnalysis, Google's AI workload,…
❤1