레오니드 네브즐린:
푸틴은 발다이에 있는 자신의 집 벙커에 숨어 있습니다.
그의 가장 친한 친구와 동료들도 그곳으로 날아갔습니다. 독재자는 공황 상태에 빠졌습니다. 그를 보호하기 위해 추가 병력이 발다이를 향해 진격했습니다. 제 정보원이 방금 이렇게 말했습니다.
프리고진은 외톨이가 아닌 것 같습니다;
바그너 반란은 러시아 엘리트 일부의 음모의 결과 일 수 있습니다.
예브게니 프리 고진이 러시아 제도권에서 "자수성가 한 남자"와 충동적인 "외톨이"라는 이미지를 받았음에도 불구하고 그의 "상승"이나 현재의 반란은 동맹이 없었다면 일어날 수 없었을 것입니다.
프리고진의 가능한 동맹국은 그림자 속에 있습니다.
그들 중 다수는 "그림자 속에 남아있었습니다"-대통령 행정부 부국장 세르게이 키리 엔코와 코발 추크 형제가 프리 고진의 배후에 있다는 정보 뒤에 "증거 기반"을 두는 것은 어렵습니다. 또 다른 사례는 프리고진을 한때 "친애하는 형제"라고 불렀던 체첸의 지도자 람잔 카디로프와 프리고진의 관계입니다.
동시에 프리고진의 많은 인맥은 단순히 '노출'된 것이 아니라 언론에 심각하게 '광고'되기도 했습니다.
가장 유명한 인맥은 다음과 같습니다:
1. 푸틴의 공보 비서 드미트리 페스코프. 프리고진은 페스코프의 아들이 바그너 PMC에서 근무했다는 사실을 확인했습니다(이에 대한 합리적인 의구심은 있지만). 이 이야기는 페스코프의 장남을 "특별 군사 작전"에 자손을 보낸 최고 엘리트의 대표로 홍보하는 데 사용되었습니다.
2. 세르게이 수로비킨 장군. 프리 고진은 수로비킨을 "러시아 군대의 가장 유능한 사령관"이라고 공개적으로 칭찬했습니다. 사실,이 군 사령관은 최근 PMC의 구조에서 "봉사"했습니다 (러시아 군대와의 상호 작용 조정). 장군이 반란에서 자신을 분리하는 성명을 썼다는 사실에도 불구하고 이상해 보였지만 프리 고진은 개인적으로 언급되지 않았습니다.
3. Just Russia 파티의 리더 세르게이 미로 노프. 그는 프리 고진을 반복해서 칭찬하고 PMC의 상표 인 망치를 들고 포즈를 취했으며 심지어 그가 두마에서 자신의 사업 이익 로비를 도왔다고 주장했습니다 ( "저는 상트 페테르부르크에서 예브게니를 오랫동안 알고있었습니다. 우리는 우호적이고 좋은 관계를 맺고 있습니다. 나는 이제 약간 벗어나서 아무도 "바그너"에 대해 들어 본 적이 없었던 2018 년에 (나는 확실히 그들에 대해 아무것도 몰랐습니다) 우리는 PMC에 관한 법을 개발했습니다.").
4. 로마 스타 로보이트, 쿠르스크 지역 주지사. Prigozhin은 Starovoit이 PMC "Wagner"캠프에서 훈련을 받았으며 PMC와 계약을 체결하라는 제안을 받았다고 확인했습니다. 이 이야기는 주지사를 용감하고 책임감 있는 애국적인 공무원으로 홍보하는 데 사용되었습니다.
5. 작가이자 정치인 자카르 프리레핀. 프리 고진이 병원에서 푸틴을 방문하여 "여분의 두개골"과 "망치 케이스"를 선물로 가져 왔을 때 그들의 특별한 관계가 드러났습니다.
테러리스트 프리 고진이 40 미터 깊이의 남부 군사 지구 사령부 벙커에 본부를 배치했다는 정보가 있습니다. 그는 킨잘 또는 이스칸데르 미사일의 공격으로 제거되는 것을 두려워합니다.
보도에 따르면 그는 반군 파트너 인 예브게니 우트킨의 분대가 모스크바에 들어가 국방부와 러시아 연방 총참모부 건물을 점령하기를 기다리고 있습니다. 그 후 프리 고진은 최후 통첩으로 쇼이 구와 게라시 모프의 해임을 요구하고 푸틴이 거부하면 프리 고진은 자신을 러시아의 구세주 인 군사 독재자라고 선언 할 것으로 알려졌다.
https://twitter.com/gerashchenko_en/status/1672633435943231488?s=46&t=h5Byg6Wosg8MJb4pbPSDow
푸틴은 발다이에 있는 자신의 집 벙커에 숨어 있습니다.
그의 가장 친한 친구와 동료들도 그곳으로 날아갔습니다. 독재자는 공황 상태에 빠졌습니다. 그를 보호하기 위해 추가 병력이 발다이를 향해 진격했습니다. 제 정보원이 방금 이렇게 말했습니다.
프리고진은 외톨이가 아닌 것 같습니다;
바그너 반란은 러시아 엘리트 일부의 음모의 결과 일 수 있습니다.
예브게니 프리 고진이 러시아 제도권에서 "자수성가 한 남자"와 충동적인 "외톨이"라는 이미지를 받았음에도 불구하고 그의 "상승"이나 현재의 반란은 동맹이 없었다면 일어날 수 없었을 것입니다.
프리고진의 가능한 동맹국은 그림자 속에 있습니다.
그들 중 다수는 "그림자 속에 남아있었습니다"-대통령 행정부 부국장 세르게이 키리 엔코와 코발 추크 형제가 프리 고진의 배후에 있다는 정보 뒤에 "증거 기반"을 두는 것은 어렵습니다. 또 다른 사례는 프리고진을 한때 "친애하는 형제"라고 불렀던 체첸의 지도자 람잔 카디로프와 프리고진의 관계입니다.
동시에 프리고진의 많은 인맥은 단순히 '노출'된 것이 아니라 언론에 심각하게 '광고'되기도 했습니다.
가장 유명한 인맥은 다음과 같습니다:
1. 푸틴의 공보 비서 드미트리 페스코프. 프리고진은 페스코프의 아들이 바그너 PMC에서 근무했다는 사실을 확인했습니다(이에 대한 합리적인 의구심은 있지만). 이 이야기는 페스코프의 장남을 "특별 군사 작전"에 자손을 보낸 최고 엘리트의 대표로 홍보하는 데 사용되었습니다.
2. 세르게이 수로비킨 장군. 프리 고진은 수로비킨을 "러시아 군대의 가장 유능한 사령관"이라고 공개적으로 칭찬했습니다. 사실,이 군 사령관은 최근 PMC의 구조에서 "봉사"했습니다 (러시아 군대와의 상호 작용 조정). 장군이 반란에서 자신을 분리하는 성명을 썼다는 사실에도 불구하고 이상해 보였지만 프리 고진은 개인적으로 언급되지 않았습니다.
3. Just Russia 파티의 리더 세르게이 미로 노프. 그는 프리 고진을 반복해서 칭찬하고 PMC의 상표 인 망치를 들고 포즈를 취했으며 심지어 그가 두마에서 자신의 사업 이익 로비를 도왔다고 주장했습니다 ( "저는 상트 페테르부르크에서 예브게니를 오랫동안 알고있었습니다. 우리는 우호적이고 좋은 관계를 맺고 있습니다. 나는 이제 약간 벗어나서 아무도 "바그너"에 대해 들어 본 적이 없었던 2018 년에 (나는 확실히 그들에 대해 아무것도 몰랐습니다) 우리는 PMC에 관한 법을 개발했습니다.").
4. 로마 스타 로보이트, 쿠르스크 지역 주지사. Prigozhin은 Starovoit이 PMC "Wagner"캠프에서 훈련을 받았으며 PMC와 계약을 체결하라는 제안을 받았다고 확인했습니다. 이 이야기는 주지사를 용감하고 책임감 있는 애국적인 공무원으로 홍보하는 데 사용되었습니다.
5. 작가이자 정치인 자카르 프리레핀. 프리 고진이 병원에서 푸틴을 방문하여 "여분의 두개골"과 "망치 케이스"를 선물로 가져 왔을 때 그들의 특별한 관계가 드러났습니다.
테러리스트 프리 고진이 40 미터 깊이의 남부 군사 지구 사령부 벙커에 본부를 배치했다는 정보가 있습니다. 그는 킨잘 또는 이스칸데르 미사일의 공격으로 제거되는 것을 두려워합니다.
보도에 따르면 그는 반군 파트너 인 예브게니 우트킨의 분대가 모스크바에 들어가 국방부와 러시아 연방 총참모부 건물을 점령하기를 기다리고 있습니다. 그 후 프리 고진은 최후 통첩으로 쇼이 구와 게라시 모프의 해임을 요구하고 푸틴이 거부하면 프리 고진은 자신을 러시아의 구세주 인 군사 독재자라고 선언 할 것으로 알려졌다.
https://twitter.com/gerashchenko_en/status/1672633435943231488?s=46&t=h5Byg6Wosg8MJb4pbPSDow
Twitter
There is information that terrorist Prigozhin has placed his headquarters in the bunker of the Southern Military District command at a depth of 40 meters. He fears being eliminated by a strike of Kinzhal or Iskander missiles.
Reportedly, he is waiting for…
Reportedly, he is waiting for…
❤1
이 '쿠데타'와 그 여파는 말이 안됩니다. 쿠데타를 일으켜 러시아 항공기를 파괴하고 국방부 지도부를 폄하한 프리고진이 어떻게 푸틴의 안전 보장을 신뢰할 수 있을까요? 어떻게 바그너가 아무런 저항이나 인명 손실 없이 우크라이나에서 모스크바 인근까지 운전해 올 수 있었을까요? 푸틴과 프리고진이 좋은 관계를 유지하고 있고, 이는 완전히 조율된 행동을 의미하는 경우에만 말이 됩니다. 제가 뭘 놓치고 있는 걸까요?
제가 생각해낼 수 있는 유일한 믿을 만한 설명은 편집증적인 지도자로 악명 높은 푸틴이 군부의 위협을 드러내고 싶어 했다는 것입니다.
'군대 또는 정부'라고 말해야 합니다. '
https://twitter.com/billackman/status/1672717296886743040?s=46&t=h5Byg6Wosg8MJb4pbPSDow
제가 생각해낼 수 있는 유일한 믿을 만한 설명은 편집증적인 지도자로 악명 높은 푸틴이 군부의 위협을 드러내고 싶어 했다는 것입니다.
'군대 또는 정부'라고 말해야 합니다. '
https://twitter.com/billackman/status/1672717296886743040?s=46&t=h5Byg6Wosg8MJb4pbPSDow
Twitter
This ‘coup’ and its aftermath make no sense. How can Prighozin trust a security guarantee from Putin after launching a coup, destroying Russian aircraft, and disparaging the MoD leadership? How can it be that Wagner just drove from Ukraine to the environs…
제 추정에 따르면 러시아에서 푸틴의 지지율은 프리고진의 '쿠데타' 24시간 동안 30% 아래로 떨어졌습니다. 피비린내 나는 살인자는 절뚝 거리는 오리가되었고 그의 "사나이"이미지는 러시아와 해외에서 모두 산산조각이났습니다.
러시아에는 오늘날 두 명의 대통령, 즉 단호하고 유능한 살인자 인 진짜 대통령과 벙커 깊숙한 곳에서 두려움에 움츠러 들고 피 묻은 공범 인 루카셴코를 협상으로 보내는 구 대통령이있는 것과 같습니다.
루카셴코가 범죄자 프리고진과의 협상에서 중재자가 된 이유는 무엇일까요? 답은 간단하다고 생각합니다. 바그너 호송대는 모스크바에서 불과 몇 시간 거리에 있었습니다. 만약 그들이 수도를 점령했다면 크렘린궁을 포함한 정부 건물을 장악했을 것입니다. 이는 푸틴 정권의 붕괴로 이어질 것이고, 이는 다시 루카셴코 정권의 붕괴로 이어졌을 것입니다. 그래서 한 쪽이 다른 쪽을 구하기 위해 서두른 것입니다.
다음은 어떻게 될까요?
1. 프리 고진과의 협상에서 어떤 정확한 합의가 이루어 졌는지 아무도 모릅니다. 사실-Wagner PMC의 호송대가 모스크바에서 200km 떨어진 곳에서 멈춰서 걸어 갔고 Prigozhin의 군대가 로스토프의 남부 군사 지역 본부를 떠났다는 것입니다.
2. 푸틴이 쇼이구와 게라시모프의 사임을 포함하여 (합의에 포함되었다고 가정 할 때) 푸틴이 자신의 거래 측을 존중할 것인지 여부에 따라 많은 것이 달라질 것입니다.
한 가지 분명한 것은:
어떤 종류의 속편이 나올 것입니다
https://twitter.com/gerashchenko_en/status/1672719234739126273?s=46&t=h5Byg6Wosg8MJb4pbPSDow
러시아에는 오늘날 두 명의 대통령, 즉 단호하고 유능한 살인자 인 진짜 대통령과 벙커 깊숙한 곳에서 두려움에 움츠러 들고 피 묻은 공범 인 루카셴코를 협상으로 보내는 구 대통령이있는 것과 같습니다.
루카셴코가 범죄자 프리고진과의 협상에서 중재자가 된 이유는 무엇일까요? 답은 간단하다고 생각합니다. 바그너 호송대는 모스크바에서 불과 몇 시간 거리에 있었습니다. 만약 그들이 수도를 점령했다면 크렘린궁을 포함한 정부 건물을 장악했을 것입니다. 이는 푸틴 정권의 붕괴로 이어질 것이고, 이는 다시 루카셴코 정권의 붕괴로 이어졌을 것입니다. 그래서 한 쪽이 다른 쪽을 구하기 위해 서두른 것입니다.
다음은 어떻게 될까요?
1. 프리 고진과의 협상에서 어떤 정확한 합의가 이루어 졌는지 아무도 모릅니다. 사실-Wagner PMC의 호송대가 모스크바에서 200km 떨어진 곳에서 멈춰서 걸어 갔고 Prigozhin의 군대가 로스토프의 남부 군사 지역 본부를 떠났다는 것입니다.
2. 푸틴이 쇼이구와 게라시모프의 사임을 포함하여 (합의에 포함되었다고 가정 할 때) 푸틴이 자신의 거래 측을 존중할 것인지 여부에 따라 많은 것이 달라질 것입니다.
한 가지 분명한 것은:
어떤 종류의 속편이 나올 것입니다
https://twitter.com/gerashchenko_en/status/1672719234739126273?s=46&t=h5Byg6Wosg8MJb4pbPSDow
Twitter
By my estimates, Putin's rating in Russia fell below 30% in the 24 hours of Prigozhin's "coup d'etat". The bloody murderer turned into a limping duck, his "macho" image shattered both in Russia and abroad
It's really like Russia had two presidents today…
It's really like Russia had two presidents today…
Rather than making a big chaos, I think we need the more peaceful solutions which prevent the worst scenarios like nuclear wars.
What’s better: negotiated peace or nuclear chaos?
It looks like the crisis in Russia is abating after many premature predictions, dunks, and celebrations. We’ve come to expect such behavior from mids like Kinzinger, but the participation of so many more serious American policy makers and influencers shows the extent to which they have lost perspective.
They expressed glee over the possibility of a coup in the world’s largest nuclear weapons state by a warlord whose main gripe is that Russia has not prosecuted the war vigorously enough, who advocates full mobilization and total war, and is more likely to countenance nuclear use.
I can understand why Ukrainian nationalists — who are desperate to win the war in light of a counteroffensive that even CNN admitted yesterday is thus-far failing — would be willing to roll the dice and root for chaos and civil war in Russia. But for American leaders to do so shows that they have lost any conception of a distinct American national interest.
What the last 24 hours have underscored is that wars are not just incredibly destructive but also incredibly unpredictable. I continue to maintain that it was in the best interest of the United States to avoid this by supporting the Istanbul deal. It would have cost us nothing except an agreement not to add Ukraine to NATO. In fact, this would not have been a cost but a benefit, saving ourselves from the insanity of committing American boys & girls to fight Russia one day on Ukraine’s behalf.
Now the war seems likely to enter an even more desperate stage for both Russia and Ukraine. Is this what we want? History proves that things can always get worse. ISIS was worse than Saddam, Lenin was worse than the Tsar, and Prigozhin could have been worse than Putin. Do we want to keep rolling the dice? Or do we want to figure out how to bring the killing to an end?
https://twitter.com/davidsacks/status/1672716197379596295?s=46&t=h5Byg6Wosg8MJb4pbPSDow
What’s better: negotiated peace or nuclear chaos?
It looks like the crisis in Russia is abating after many premature predictions, dunks, and celebrations. We’ve come to expect such behavior from mids like Kinzinger, but the participation of so many more serious American policy makers and influencers shows the extent to which they have lost perspective.
They expressed glee over the possibility of a coup in the world’s largest nuclear weapons state by a warlord whose main gripe is that Russia has not prosecuted the war vigorously enough, who advocates full mobilization and total war, and is more likely to countenance nuclear use.
I can understand why Ukrainian nationalists — who are desperate to win the war in light of a counteroffensive that even CNN admitted yesterday is thus-far failing — would be willing to roll the dice and root for chaos and civil war in Russia. But for American leaders to do so shows that they have lost any conception of a distinct American national interest.
What the last 24 hours have underscored is that wars are not just incredibly destructive but also incredibly unpredictable. I continue to maintain that it was in the best interest of the United States to avoid this by supporting the Istanbul deal. It would have cost us nothing except an agreement not to add Ukraine to NATO. In fact, this would not have been a cost but a benefit, saving ourselves from the insanity of committing American boys & girls to fight Russia one day on Ukraine’s behalf.
Now the war seems likely to enter an even more desperate stage for both Russia and Ukraine. Is this what we want? History proves that things can always get worse. ISIS was worse than Saddam, Lenin was worse than the Tsar, and Prigozhin could have been worse than Putin. Do we want to keep rolling the dice? Or do we want to figure out how to bring the killing to an end?
https://twitter.com/davidsacks/status/1672716197379596295?s=46&t=h5Byg6Wosg8MJb4pbPSDow
Twitter
What’s better: negotiated peace or nuclear chaos?
It looks like the crisis in Russia is abating after many premature predictions, dunks, and celebrations. We’ve come to expect such behavior from mids like Kinzinger, but the participation of so many more…
It looks like the crisis in Russia is abating after many premature predictions, dunks, and celebrations. We’ve come to expect such behavior from mids like Kinzinger, but the participation of so many more…
한중일 출신이 구글에서 왜 인도 출신에 비해 리더십 수가 왜 적은가? https://youtu.be/auSJeTzzuEE Sunghyun Hwang 🙏
1. 권위에 대한 존중
- 고전적인 동양 문화에서는 개인적인 가치보다는 사회나 집단의 기대에 부응하는 것이 중요하게 여겨집니다. 이로 인해, 사람들은 자신만의 독특한 가치나 목표를 세우는 대신, 누군가가 제시한 목표를 따르는 경향이 있습니다.
- 이런 접근법은 우리가 부여받은 업무를 잘 수행하는 데에는 효과적일 수 있지만, 이를 통해 리더십을 발휘하거나 전략적인 결정을 내리는 능력을 발전시키는 데에는 한계가 있을 수 있습니다.
2. 관계 구축
- 사람들이 타인을 평가할 때 두 가지 요소, 즉 따뜻함과 능력을 중요하게 여깁니다.
- 하지만 동양 문화에서는 감정을 내보이는 것이 부적절하다고 여겨질 때가 많아, 이로 인해 따뜻한 인상을 주기 어려울 수 있습니다. 이러한 문화적 배경 때문에, 적대적이거나 친밀감을 형성하는데 어려움을 겪는 경우가 있을 수 있습니다.
3. 취약점을 보여주는 용기
- 취약점을 보여주는 것은 상대방에 대한 신뢰의 표현이지만, 동양 문화에서는 이를 약점으로 보는 경우가 많습니다.
- 실패에 대한 공포와 체면을 유지하려는 문화가 이러한 취약점을 공개하고, 이를 통해 배우려는 시도를 억제할 수 있습니다.
현대 세상에서는 꿈만 크게 꾸면 방법은 이미 다 나와있습니다. 따라서, 우리 스스로의 가치를 찾아내고, 따뜻하고 능력있는 사람으로 인식되며, 취약점을 공유하고 그것을 통해 배울 수 있는 용기를 가지는 것이 중요합니다. 이러한 능력은 오늘날의 글로벌 환경에서 우리의 성장과 발전을 위해 필수적입니다.
1. 권위에 대한 존중
- 고전적인 동양 문화에서는 개인적인 가치보다는 사회나 집단의 기대에 부응하는 것이 중요하게 여겨집니다. 이로 인해, 사람들은 자신만의 독특한 가치나 목표를 세우는 대신, 누군가가 제시한 목표를 따르는 경향이 있습니다.
- 이런 접근법은 우리가 부여받은 업무를 잘 수행하는 데에는 효과적일 수 있지만, 이를 통해 리더십을 발휘하거나 전략적인 결정을 내리는 능력을 발전시키는 데에는 한계가 있을 수 있습니다.
2. 관계 구축
- 사람들이 타인을 평가할 때 두 가지 요소, 즉 따뜻함과 능력을 중요하게 여깁니다.
- 하지만 동양 문화에서는 감정을 내보이는 것이 부적절하다고 여겨질 때가 많아, 이로 인해 따뜻한 인상을 주기 어려울 수 있습니다. 이러한 문화적 배경 때문에, 적대적이거나 친밀감을 형성하는데 어려움을 겪는 경우가 있을 수 있습니다.
3. 취약점을 보여주는 용기
- 취약점을 보여주는 것은 상대방에 대한 신뢰의 표현이지만, 동양 문화에서는 이를 약점으로 보는 경우가 많습니다.
- 실패에 대한 공포와 체면을 유지하려는 문화가 이러한 취약점을 공개하고, 이를 통해 배우려는 시도를 억제할 수 있습니다.
현대 세상에서는 꿈만 크게 꾸면 방법은 이미 다 나와있습니다. 따라서, 우리 스스로의 가치를 찾아내고, 따뜻하고 능력있는 사람으로 인식되며, 취약점을 공유하고 그것을 통해 배울 수 있는 용기를 가지는 것이 중요합니다. 이러한 능력은 오늘날의 글로벌 환경에서 우리의 성장과 발전을 위해 필수적입니다.
YouTube
인간 넘어서는 슈퍼인공지능? 일 낼 것 같은 구글
‘구글이 AI 대오를 정비했다. 조만간 일 낼지 모른다!’
구글이 드디어 제대로 된 칼을 빼들었습니다. 챗GPT보다 성능이 낫다는 평가도 있는 ‘바드’를 발표했고, 구글의 원래 AI조직 구글브레인과 알파고의 딥마인드를 합쳐 전열도 정비했습니다. 딥마인드 창업자 허사비스와 모니터를 째려만 봐도 코딩이 된다는 천재 제프 딘이 한 조직에서 일하게 된 것이죠. 조만간 인간지능에 맞먹는 슈퍼인공지능을 개발할 것이라 벼르고 있습니다. 이 천재들이 펼칠 구글의…
구글이 드디어 제대로 된 칼을 빼들었습니다. 챗GPT보다 성능이 낫다는 평가도 있는 ‘바드’를 발표했고, 구글의 원래 AI조직 구글브레인과 알파고의 딥마인드를 합쳐 전열도 정비했습니다. 딥마인드 창업자 허사비스와 모니터를 째려만 봐도 코딩이 된다는 천재 제프 딘이 한 조직에서 일하게 된 것이죠. 조만간 인간지능에 맞먹는 슈퍼인공지능을 개발할 것이라 벼르고 있습니다. 이 천재들이 펼칠 구글의…
AGI house session deck: small developer(Baby AGI) https://docs.google.com/presentation/d/1d5N3YqjSJwhioFT-edmyjxGsPBCMb1uZg0Zs5Ju673k/edit#slide=id.g254e571859c_0_192
Interesting neural science book, Brain and Behavior: A Cognitive Neuroscience Perspective http://amazon.com/dp/0195377680/ref=cm_sw_r_as_gl_api_gl_i_CGDWM54CK5QGT4C9TQ7M?linkCode=ml1&tag=swyx0d-20
Andrej on AGI house’ event
https://twitter.com/swyx/status/1672686090589990912?s=20
Andrej Karpathy @ AGI House today: hackers and startups outcompete OpenAI when applying OpenAI models to new capabilities.
“If a paper comes out that proposes some different way of training a transformer, the OpenAI Slack is something along the lines of, ‘Oh, yeah, someone tried that 2.5 years ago and here’s what happened, and here’s why it didn’t work. It’s very well understood and mapped out.
But when a new agent paper comes out, we’re all interested and we look at it, and we’re like, ‘That’s really cool, that’s novel.’ And that’s because a team didn’t have five years to spend on it. And it’s competing now with all of you, the entrepreneurs and the hackers. And that’s hard to do. So I hope it’s really inspiring that you are at the edge of capability.”
Interesting neural science book, Brain and Behavior: A Cognitive Neuroscience Perspective http://amazon.com/dp/0195377680/ref=cm_sw_r_as_gl_api_gl_i_CGDWM54CK5QGT4C9TQ7M?linkCode=ml1&tag=swyx0d-20
Andrej on AGI house’ event
https://twitter.com/swyx/status/1672686090589990912?s=20
Andrej Karpathy @ AGI House today: hackers and startups outcompete OpenAI when applying OpenAI models to new capabilities.
“If a paper comes out that proposes some different way of training a transformer, the OpenAI Slack is something along the lines of, ‘Oh, yeah, someone tried that 2.5 years ago and here’s what happened, and here’s why it didn’t work. It’s very well understood and mapped out.
But when a new agent paper comes out, we’re all interested and we look at it, and we’re like, ‘That’s really cool, that’s novel.’ And that’s because a team didn’t have five years to spend on it. And it’s competing now with all of you, the entrepreneurs and the hackers. And that’s hard to do. So I hope it’s really inspiring that you are at the edge of capability.”
Google Docs
it's a smol world - agi house
smol developer swyx
이번 주말 AI 해커톤에서 얻은 핵심 내용 요약: 1) AGI를 대중에게 전달하는 형식으로 에이전트에 대한 낙관적 전망 2) 다음 도약을 위해 신경과학에서 영감 구하기
의견 #1: - 대형 기업이 진정한 우위를 점하는 모델 트레이닝과 달리 에이전트 설계는 보다 민주적이며 스타트업이 진정한 기회를 잡을 수 있다 - 신경과학에서 얻은 영감이 현장에서의 다음 혁신을 주도할 가능성이 높다. 잘 표현된 부분(예: 해마, 시각, 청각 피질)도 있지만 그렇지 않은 부분(예: 모델의 기저핵 기능이 약함(실행 기능/감정))도 있습니다.
- 영감: 데이비드 이글먼의 뇌와 행동
#2: AGI는 여러 명의 작은 에이전트가 서로 대화하는 형태가 될 것입니다. 특정 에이전트의 책임은 좁아질 것이므로 전문화하세요.
#3: 에이전트에 대해 다소 비관적이며, 현재 실제 업무에 에이전트를 사용하는 사람은 아무도 없다고 생각합니다. 핵심 질문: 에이전트를 실제로 유용하게 만들려면 어떻게 해야 할까요? 에이전트 설계를 위해 인간의 뇌에서 영감을 얻음
#4: 에이전트의 ‘유용성’은 과대평가되어 있습니다. 미친 과학자 입장에서 에이전트를 생각해 보세요. 상담원이 “미친 짓 X”를 할 수 있다면 어떨까요? 스스로 조직화되는 에이전트에 대한 호기심(예: 소프트웨어가 스스로 계약을 협상하는 것)
https://twitter.com/apoorv03/status/1672748865064415236
의견 #1: - 대형 기업이 진정한 우위를 점하는 모델 트레이닝과 달리 에이전트 설계는 보다 민주적이며 스타트업이 진정한 기회를 잡을 수 있다 - 신경과학에서 얻은 영감이 현장에서의 다음 혁신을 주도할 가능성이 높다. 잘 표현된 부분(예: 해마, 시각, 청각 피질)도 있지만 그렇지 않은 부분(예: 모델의 기저핵 기능이 약함(실행 기능/감정))도 있습니다.
- 영감: 데이비드 이글먼의 뇌와 행동
#2: AGI는 여러 명의 작은 에이전트가 서로 대화하는 형태가 될 것입니다. 특정 에이전트의 책임은 좁아질 것이므로 전문화하세요.
#3: 에이전트에 대해 다소 비관적이며, 현재 실제 업무에 에이전트를 사용하는 사람은 아무도 없다고 생각합니다. 핵심 질문: 에이전트를 실제로 유용하게 만들려면 어떻게 해야 할까요? 에이전트 설계를 위해 인간의 뇌에서 영감을 얻음
#4: 에이전트의 ‘유용성’은 과대평가되어 있습니다. 미친 과학자 입장에서 에이전트를 생각해 보세요. 상담원이 “미친 짓 X”를 할 수 있다면 어떨까요? 스스로 조직화되는 에이전트에 대한 호기심(예: 소프트웨어가 스스로 계약을 협상하는 것)
https://twitter.com/apoorv03/status/1672748865064415236
Twitter
Nuggets from AI hackathon this weekend
TLDR: 1) Bullish on agents as the delivery format of AGI to masses 2) Seeking inspiration from neuroscience for the next leap
Opinion #1:
- Unlike model training where larger cos have true edge, agent design is more…
TLDR: 1) Bullish on agents as the delivery format of AGI to masses 2) Seeking inspiration from neuroscience for the next leap
Opinion #1:
- Unlike model training where larger cos have true edge, agent design is more…
If you would like to run a new kind of media in the world, consider to leverage the Twitter.
https://twitter.com/MarioNawfal/status/1672828857445916672
https://twitter.com/MarioNawfal/status/1672828857445916672
Twitter
My Crazy Week: A Prime Minister, A Sub, Elon’s Fight, Tate, and a Coup
The plan for this week was to take it easy, doing 1-2 spaces a day and focusing on our groundbreaking interview with Pakistan's former Prime Minister, Imran Khan.
Monday: I changed my…
The plan for this week was to take it easy, doing 1-2 spaces a day and focusing on our groundbreaking interview with Pakistan's former Prime Minister, Imran Khan.
Monday: I changed my…
There’s an old saying in poker: “If you can't spot the fish at the table, you are the fish.” Same is true of propaganda. If you can’t spot it, you’re the one getting propagandized.
https://twitter.com/DavidSacks/status/1672841786019172352?s=20
https://twitter.com/DavidSacks/status/1672841786019172352?s=20
Twitter
There’s an old saying in poker: “If you can't spot the fish at the table, you are the fish.” Same is true of propaganda. If you can’t spot it, you’re the one getting propagandized.
"Be it resolved, AI research and development poses an existential threat."
On the YES side: Yoshua Bengio & Max Tegmark
On the NO side: Melanie Mitchell & me.
https://lnkd.in/g7c6PVVt
On the YES side: Yoshua Bengio & Max Tegmark
On the NO side: Melanie Mitchell & me.
https://lnkd.in/g7c6PVVt
Munkdebates
Debate Preview4 | Munk Debates
Welcome to the Munk Debates. We are the creators of some of the world’s most fascinating debates, discussions and podcasts on the big issues of the day.
Hyena Hierarchy: Towards Larger Convolutional Language Models
https://arxiv.org/pdf/2302.10866.pdf
The authors propose a new architecture called Hyena Hierarchy, which aims to improve the performance of convolutional transformers by leveraging hierarchical representations and multi-scale processing1.The Hyena Hierarchy architecture is designed to address the limitations of existing convolutional transformers, such as the inability to scale efficiently to larger models and the lack of support for hierarchical representations1. By incorporating these features, the authors demonstrate that the Hyena Hierarchy model can achieve state-of-the-art performance on various benchmark datasets, including ImageNet-1K and ImageNet-21K1.
The paper highlights the potential of larger convolutional transformers in deep learning applications, particularly in the areas of computer vision and natural language processing. The Hyena Hierarchy architecture offers a promising direction for future research and development in this field1.
The Secret Sauce behind 100K context window in LLMs: all tricks in one place
https://blog.gopenai.com/how-to-speed-up-llms-and-use-100k-context-window-all-tricks-in-one-place-ffd40577b4c
The article provides an overview of techniques to speed up training and inference of Large Language Models (LLMs) to use large context windows of up to 100,000 input tokens during training and inference. Some of the techniques mentioned in the article include ALiBi positional embedding, Sparse Attention, FlashAttention, Multi-Query attention, Conditional computation, and the use of 80GB A100 GPUs1.
The article discusses recent announcements about new LLMs that can consume extremely large context windows, such as 65,000 tokens (MPT-7B-StoryWriter-65k+ by MosaicML) or even 100,000 tokens (Introducing 100K Context Windows by Antropic)1. These advancements are significant as they allow LLMs to process and understand larger amounts of text, potentially leading to improved performance and capabilities in various AI applications1.
https://arxiv.org/pdf/2302.10866.pdf
The authors propose a new architecture called Hyena Hierarchy, which aims to improve the performance of convolutional transformers by leveraging hierarchical representations and multi-scale processing1.The Hyena Hierarchy architecture is designed to address the limitations of existing convolutional transformers, such as the inability to scale efficiently to larger models and the lack of support for hierarchical representations1. By incorporating these features, the authors demonstrate that the Hyena Hierarchy model can achieve state-of-the-art performance on various benchmark datasets, including ImageNet-1K and ImageNet-21K1.
The paper highlights the potential of larger convolutional transformers in deep learning applications, particularly in the areas of computer vision and natural language processing. The Hyena Hierarchy architecture offers a promising direction for future research and development in this field1.
The Secret Sauce behind 100K context window in LLMs: all tricks in one place
https://blog.gopenai.com/how-to-speed-up-llms-and-use-100k-context-window-all-tricks-in-one-place-ffd40577b4c
The article provides an overview of techniques to speed up training and inference of Large Language Models (LLMs) to use large context windows of up to 100,000 input tokens during training and inference. Some of the techniques mentioned in the article include ALiBi positional embedding, Sparse Attention, FlashAttention, Multi-Query attention, Conditional computation, and the use of 80GB A100 GPUs1.
The article discusses recent announcements about new LLMs that can consume extremely large context windows, such as 65,000 tokens (MPT-7B-StoryWriter-65k+ by MosaicML) or even 100,000 tokens (Introducing 100K Context Windows by Antropic)1. These advancements are significant as they allow LLMs to process and understand larger amounts of text, potentially leading to improved performance and capabilities in various AI applications1.
Medium
The Secret Sauce behind 100K context window in LLMs: all tricks in one place
tldr; techniques to speed up training and inference of LLMs to use large context window up to 100K input tokens during training and…