z.ai에서 Opus4.5에 필적한다는 오픈소스 모델인 GLM-5가 새로 나왔는데, "너에 대해 소개하는 웹사이트 만들어"라고 하자 Claude 소개 페이지를 만들었다는 갬동 설화ㅋㅋㅋㅋㅋㅋㅋ
중국 AI들의 프론티어 ai 증류는 계속된다!
https://x.com/lihanc02/status/2021714646567465454/photo/1
중국 AI들의 프론티어 ai 증류는 계속된다!
https://x.com/lihanc02/status/2021714646567465454/photo/1
Forwarded from 머니보틀
혼동의 핵심은 상품이름 자체가 그냥 chatgpt pro가 아니라 'for kakao'여서 해석하기에 따라 동일하지 않다고 결론내릴수있다는거였는데 아무튼 집단지성+경험담에서 문제없다 결론 내렸으니 괜찮은거같고, 관건은 '프로모션/특가 상품은 유효기간 연장불가'라는 선물하기 종특상 이걸 연장 해줘서 5달 온전히 쓸수 있을것이냐 아니면 3달(이미 구독중인 사람은 다음달부터 쓰니 4달) 후 울면서 90퍼만 환불받냐 차이일 듯
❤1
Forwarded from Futaba
다들 codex 결제한 김에, 오늘 Opencode 만드는 dax가 codex 샤라웃 함
'Codex가 코딩 훨씬 잘 하는데 Opus가 가장 인기많은거 보면 가장 똑똑한게 아니라 사용 편리하게 만드는게 시장에서 이기는데는 더 중요한거 같다'
물론 자기 경험엔 아니라며 반박하는 댓글도 많긴 한데, 둘 다 써봐도 그냥 클로드가 agentic하게 쓰기 좋은거지 코드 자체는 codex가 에러 덜 내고 한번에 잘 짜는거 같음. 개가튼 컨텍스트 관리 스트레스도 없고.
근데 opus가 1m 컨텍스트를 준다면 모든게 용서됨
'Codex가 코딩 훨씬 잘 하는데 Opus가 가장 인기많은거 보면 가장 똑똑한게 아니라 사용 편리하게 만드는게 시장에서 이기는데는 더 중요한거 같다'
물론 자기 경험엔 아니라며 반박하는 댓글도 많긴 한데, 둘 다 써봐도 그냥 클로드가 agentic하게 쓰기 좋은거지 코드 자체는 codex가 에러 덜 내고 한번에 잘 짜는거 같음. 개가튼 컨텍스트 관리 스트레스도 없고.
근데 opus가 1m 컨텍스트를 준다면 모든게 용서됨
X (formerly Twitter)
dax (@thdxr) on X
codex is by far a better coding model than opus - anyone who knows anything understands this
but the whole industry should reflect on why opus is the most popular
people assume whatever is the smartest will win but the old rules of product are still what…
but the whole industry should reflect on why opus is the most popular
people assume whatever is the smartest will win but the old rules of product are still what…
Forwarded from PaguInfo 파구정보 (DeFi Info) (Pagu Info)
DeFiLlama 크립토 도메인 서치엔진 출시
링크: https://search.defillama.com/
디파이라마의 수장 0x느그미 가
'더이상 구글의 가짜광고에 속지 말고, 여기와서 크립토 도메인 검색하라!' 라며 링크를 오픈함
사실 디파이라마 에서 찾는거랑 다를바는 없는데,
디파이라마는 느리고, 한번 더 Website 를 클립해서 들어가야 하는 반면,
이건 매우 빠르게 로딩되고,
디파이라마에서 한번 필터링을 한것이라 구글보다는 안전할 것으로 생각됨
물론 이것도 100% 는 아니지만, 구글보다는 100배 정도 나을것
링크: https://search.defillama.com/
디파이라마의 수장 0x느그미 가
'더이상 구글의 가짜광고에 속지 말고, 여기와서 크립토 도메인 검색하라!' 라며 링크를 오픈함
사실 디파이라마 에서 찾는거랑 다를바는 없는데,
디파이라마는 느리고, 한번 더 Website 를 클립해서 들어가야 하는 반면,
이건 매우 빠르게 로딩되고,
디파이라마에서 한번 필터링을 한것이라 구글보다는 안전할 것으로 생각됨
물론 이것도 100% 는 아니지만, 구글보다는 100배 정도 나을것
Forwarded from 전종현의 인사이트
이분 글을 진짜 잘쓰시네... 이 글 또한 넓게 보면 위의 글과 비슷한 이야기인 것 같다. 결국 나의 희소한 attention을 정말 중요한 곳에 쓰자는 이야기.
"마음을 연구하면서 DeepSeek는 그들이 "U자형 곡선(U-shaped curve)"이라 부르는 패턴을 발견했습니다. 그들은 뇌의 얼마나 많은 부분을 "엔그램(고정된 기억 저장소)"에 할당하고, 얼마나 많은 부분을 "전문가(Experts, 사고를 담당하는 부분)"에 남겨둘지 결정해야 했습니다."
"그 결과는 시사하는 바가 컸습니다. 기억이 충분하지 않으면 마음은 아이처럼 머물러, 모든 것을 처음부터 다시 알아내느라 지쳐버립니다. 하지만 기억이 너무 많으면 다른 방식으로 경직됩니다. 이미 답을 안다고 가정하기 때문에 시스템은 생각을 멈춥니다."
"그들이 발견한 최적점은 비대칭이었습니다. 25퍼센트의 기억, 75퍼센트의 사고."
->
"DeepSeek 논문은 컴퓨터 칩에 관한 것처럼 보이지만, 사실 우리에 관한 질문을 던지고 있습니다. 그것은 우리가 우리의 제한된 주의력(attention)을 어떻게 사용하는가에 대한 질문입니다."
"어느 순간이든 쏟을 수 있는 주의력은 한정되어 있는데, 우리는 그것을 어떻게 써야 할까요? 닥쳐오는 문제를 해결하는 부분에 얼마나 할당하고, 이미 아는 것을 단순히 기억해 내는 부분에 얼마나 할당해야 할까요?"
"우리 대부분은 U자형 곡선의 양쪽 끝자락에서 위태롭게 살아가며, 잘못 할당된 삶이 초래하는 높은 '검증 손실(validation loss)'로 고통받고 있습니다."
"저는 '캐시가 부족한(under-cached)' 제 친구들을 봅니다. 그들은 모든 이메일, 모든 사회적 상호작용, 모든 메뉴 선택을 마치 새로운 철학적 문제인 양 대합니다. 그들은 "원칙이 있습니다." 그들은 "진정성"이 있습니다. 그들은 "순수 MoE(전문가 혼합)" 베이스라인 모델처럼 과열된 채 돌아가며, 존재의 마찰을 미덕으로 여깁니다. 하지만 그들은 지쳐 있습니다. 삶의 문법(syntax)을 자동화하기를 거부함으로써, 시(poetry)를 위한 깊이를 남겨두지 않았습니다. 그들은 생존을 위해 자신의 "활성화된 매개변수"를 다 써버리고 있습니다."
"그리고 '과하게 캐시된(over-cached)' 사람들이 있습니다. 유행어로 말하고, 어림짐작에 의존하며, 모든 것에 대한 일화는 있지만 아무것에 대한 통찰도 없는 남녀들입니다. 그들은 기억 슬롯을 수십억 개로 늘렸지만, 추론 능력은 굶겨 죽였습니다. 그들의 게이트는 고장 났습니다. 그들은 더 이상 사는 게 아니라, 이미 살아남았던 날들을 재연하고 있을 뿐입니다."
"기억을 위해 약 25퍼센트를 사용하라는 아이디어는 사려 깊은 삶을 위한 지침입니다. 우리가 무엇을 습관으로 만들지 주의해야 한다는 뜻입니다. 그래야 정말 중요한 것에 집중할 수 있으니까요."
"그러니, 우리는 컴파일(compile)하는 법을 배워야 합니다."
"기초를 컴파일하십시오. 구구단을 컴파일하십시오. 정중한 인사말, 표준 운영 절차, 출근길을 컴파일하십시오. 그것들을 엔그램의 어둠 속으로 밀어 넣으십시오. 그것들을 임계 경로(critical path)에서 제거하여 다시는 생각할 필요가 없게 하십시오."
"그리고 가장자리를 해석하십시오. 추론의 예산을 정말로 필요한 순간들—도덕적 딜레마, 비통함, 위기, 그리고 예술—을 위해 신성하게 남겨두십시오."
"화이트헤드는 말했습니다. "문명은 우리가 생각하지 않고 수행할 수 있는 중요한 작업의 수를 늘림으로써 발전한다." 그는 옳았지만, 불완전했습니다. 문명은 작업을 자동화함으로써 발전하는 것이 맞지만, 문명이 생존하는 것은 언제 그 자동화를 꺼야 할지 아는 것에 달려 있습니다."
"DeepSeek의 논문은 언제 기억하고 언제 생각해야 할지 아는 기계를 만들어 조금 더 효율적으로 만들었다는 기술적 승리를 자축하며 끝납니다. 하지만 우리에게, 카페에서 손가락을 꼽지 않고 마침내 "56"이라고 말하는 아이를 보는 것은, 우리가 생각을 멈추기 위해 암기하는 것이 아니라, 마침내 진정으로 생각을 시작하기 위해 충분히 기억해 둔다는 사실을 상기시켜 줍니다."
https://fakepixels.substack.com/p/twenty-five-percent-without-thinking
"마음을 연구하면서 DeepSeek는 그들이 "U자형 곡선(U-shaped curve)"이라 부르는 패턴을 발견했습니다. 그들은 뇌의 얼마나 많은 부분을 "엔그램(고정된 기억 저장소)"에 할당하고, 얼마나 많은 부분을 "전문가(Experts, 사고를 담당하는 부분)"에 남겨둘지 결정해야 했습니다."
"그 결과는 시사하는 바가 컸습니다. 기억이 충분하지 않으면 마음은 아이처럼 머물러, 모든 것을 처음부터 다시 알아내느라 지쳐버립니다. 하지만 기억이 너무 많으면 다른 방식으로 경직됩니다. 이미 답을 안다고 가정하기 때문에 시스템은 생각을 멈춥니다."
"그들이 발견한 최적점은 비대칭이었습니다. 25퍼센트의 기억, 75퍼센트의 사고."
->
"DeepSeek 논문은 컴퓨터 칩에 관한 것처럼 보이지만, 사실 우리에 관한 질문을 던지고 있습니다. 그것은 우리가 우리의 제한된 주의력(attention)을 어떻게 사용하는가에 대한 질문입니다."
"어느 순간이든 쏟을 수 있는 주의력은 한정되어 있는데, 우리는 그것을 어떻게 써야 할까요? 닥쳐오는 문제를 해결하는 부분에 얼마나 할당하고, 이미 아는 것을 단순히 기억해 내는 부분에 얼마나 할당해야 할까요?"
"우리 대부분은 U자형 곡선의 양쪽 끝자락에서 위태롭게 살아가며, 잘못 할당된 삶이 초래하는 높은 '검증 손실(validation loss)'로 고통받고 있습니다."
"저는 '캐시가 부족한(under-cached)' 제 친구들을 봅니다. 그들은 모든 이메일, 모든 사회적 상호작용, 모든 메뉴 선택을 마치 새로운 철학적 문제인 양 대합니다. 그들은 "원칙이 있습니다." 그들은 "진정성"이 있습니다. 그들은 "순수 MoE(전문가 혼합)" 베이스라인 모델처럼 과열된 채 돌아가며, 존재의 마찰을 미덕으로 여깁니다. 하지만 그들은 지쳐 있습니다. 삶의 문법(syntax)을 자동화하기를 거부함으로써, 시(poetry)를 위한 깊이를 남겨두지 않았습니다. 그들은 생존을 위해 자신의 "활성화된 매개변수"를 다 써버리고 있습니다."
"그리고 '과하게 캐시된(over-cached)' 사람들이 있습니다. 유행어로 말하고, 어림짐작에 의존하며, 모든 것에 대한 일화는 있지만 아무것에 대한 통찰도 없는 남녀들입니다. 그들은 기억 슬롯을 수십억 개로 늘렸지만, 추론 능력은 굶겨 죽였습니다. 그들의 게이트는 고장 났습니다. 그들은 더 이상 사는 게 아니라, 이미 살아남았던 날들을 재연하고 있을 뿐입니다."
"기억을 위해 약 25퍼센트를 사용하라는 아이디어는 사려 깊은 삶을 위한 지침입니다. 우리가 무엇을 습관으로 만들지 주의해야 한다는 뜻입니다. 그래야 정말 중요한 것에 집중할 수 있으니까요."
"그러니, 우리는 컴파일(compile)하는 법을 배워야 합니다."
"기초를 컴파일하십시오. 구구단을 컴파일하십시오. 정중한 인사말, 표준 운영 절차, 출근길을 컴파일하십시오. 그것들을 엔그램의 어둠 속으로 밀어 넣으십시오. 그것들을 임계 경로(critical path)에서 제거하여 다시는 생각할 필요가 없게 하십시오."
"그리고 가장자리를 해석하십시오. 추론의 예산을 정말로 필요한 순간들—도덕적 딜레마, 비통함, 위기, 그리고 예술—을 위해 신성하게 남겨두십시오."
"화이트헤드는 말했습니다. "문명은 우리가 생각하지 않고 수행할 수 있는 중요한 작업의 수를 늘림으로써 발전한다." 그는 옳았지만, 불완전했습니다. 문명은 작업을 자동화함으로써 발전하는 것이 맞지만, 문명이 생존하는 것은 언제 그 자동화를 꺼야 할지 아는 것에 달려 있습니다."
"DeepSeek의 논문은 언제 기억하고 언제 생각해야 할지 아는 기계를 만들어 조금 더 효율적으로 만들었다는 기술적 승리를 자축하며 끝납니다. 하지만 우리에게, 카페에서 손가락을 꼽지 않고 마침내 "56"이라고 말하는 아이를 보는 것은, 우리가 생각을 멈추기 위해 암기하는 것이 아니라, 마침내 진정으로 생각을 시작하기 위해 충분히 기억해 둔다는 사실을 상기시켜 줍니다."
https://fakepixels.substack.com/p/twenty-five-percent-without-thinking
Substack
Twenty-five percent without thinking
We are using a supercomputer just to confirm that Paris is in France.
❤3
역대급 트롤링.. @textsexybot 가입 인원 제한을 100명으로 해놓고 까먹고 있었네요 그새 수십명이 이유도 모르고 reject 되고 있었는데 다시 start를 눌러 시도해주시면 되겠습니다ㅠ
몇 가지 업데이트 사항
- 구독도 오랫동안 안 읽으면 스팸이 됩니다. 읽었다면 간단히 이모지로 반응해 주세요. 5회 이상 연속으로 반응이 없던 채널은 자동으로 구독 해지됩니다.
- 9시 digest가 정확히 cron이 돌지 않으면 가지 않던 버그 해결. 근데 이건 digest 구독 해지하는 사람 비율 봐서 유용하다고 느끼는지 보고 없앨지 말지 결정할 예정. beta test중.
- 더 짧은 버전의 요약으로 받을 수 있는 옵션을 넣으면 좋을까? 긴 영상을 충실히 요약하기 위해 최대한 꽉꽉 채우도록 하고 있긴 한데 현재는
몇 가지 업데이트 사항
- 구독도 오랫동안 안 읽으면 스팸이 됩니다. 읽었다면 간단히 이모지로 반응해 주세요. 5회 이상 연속으로 반응이 없던 채널은 자동으로 구독 해지됩니다.
- 9시 digest가 정확히 cron이 돌지 않으면 가지 않던 버그 해결. 근데 이건 digest 구독 해지하는 사람 비율 봐서 유용하다고 느끼는지 보고 없앨지 말지 결정할 예정. beta test중.
- 더 짧은 버전의 요약으로 받을 수 있는 옵션을 넣으면 좋을까? 긴 영상을 충실히 요약하기 위해 최대한 꽉꽉 채우도록 하고 있긴 한데 현재는
이건 프론트엔드 하이재킹이라 무관한 거긴 한데, 별개로 Curvance가 이율 좀 더 주더라도 되도록 그냥 모포 오일러나 쓰는게 낫다 생각.
모나드가 정말 아쉬운게 디앱 밀어주는게 대표 부부 인맥과 뉴욕 밀실 카르텔에 의해 비합리적으로 정해짐. 밀어주지 말아야 할 애들에 지원을 몰아주고 좋은 빌더들은 지원 짜게해주거나 끊어서 다 쫓아냄.
대표적으로 Curvance, neverland가 진짜 왜 지금도 대표 lending으로 대동강 밀어주는지 이해할 수가 없음. 막상 native dex들도 raise만 크게 하더니 뭐 없고 uniswap, pcs가 대동강 다 먹음.
애초에 렌딩이 contract 외적인 의존성이 높은 프로토콜이라 창의적으로 뭔가 하면 위험한 구조라 파라미터 하나도 조심해야 함. 근데 거기서 효율성 높인다고 morpho풀에서 양방향으로 collateral이자 borrowable로 쓸 수 있게 하는 implementation 도입함.
잘 만드는 애들이면 모르겠는데, 오딧 이력 보면 비싼 애들한테 엄청 많이 받아놓고도 런칭 직전 마지막 비싼 오딧인 Sherlock 리포트 보면 High 9개 Medium 9개임.
여러번 개비싼 오딧을 받아놓고도 이 정도로 high가 많이 나오는건
1) 이전 오딧이 의미없을 정도로 코드 freeze가 안되고 변경이 많았다
2) 이전 오딧에서 놓친게 많았다.
인데 뭐든 좋지 않음.
런칭 후에도 써보니 너무 대놓고 보이는 버그가 많아서 테넷 기간 길었는데 왜 못잡았냐 하니, 실제 메인넷에서 진짜 돈 넣고 테스트는 안해봐서 valuation이 테넷은 엉망이라 제대로 작동시켜본건 처음이다 라는 말도안되는 변명을 함.
그냥 여기에 많은 돈 넣어주는건 test on prod 하는데 실험쥐가 되어주는 꼴.
고이율은 못참긴 해서 잃어도 되는돈은 넣었다 뻈다 하긴 하는데 큰돈 넣는건 좀..
모나드가 정말 아쉬운게 디앱 밀어주는게 대표 부부 인맥과 뉴욕 밀실 카르텔에 의해 비합리적으로 정해짐. 밀어주지 말아야 할 애들에 지원을 몰아주고 좋은 빌더들은 지원 짜게해주거나 끊어서 다 쫓아냄.
대표적으로 Curvance, neverland가 진짜 왜 지금도 대표 lending으로 대동강 밀어주는지 이해할 수가 없음. 막상 native dex들도 raise만 크게 하더니 뭐 없고 uniswap, pcs가 대동강 다 먹음.
애초에 렌딩이 contract 외적인 의존성이 높은 프로토콜이라 창의적으로 뭔가 하면 위험한 구조라 파라미터 하나도 조심해야 함. 근데 거기서 효율성 높인다고 morpho풀에서 양방향으로 collateral이자 borrowable로 쓸 수 있게 하는 implementation 도입함.
잘 만드는 애들이면 모르겠는데, 오딧 이력 보면 비싼 애들한테 엄청 많이 받아놓고도 런칭 직전 마지막 비싼 오딧인 Sherlock 리포트 보면 High 9개 Medium 9개임.
여러번 개비싼 오딧을 받아놓고도 이 정도로 high가 많이 나오는건
1) 이전 오딧이 의미없을 정도로 코드 freeze가 안되고 변경이 많았다
2) 이전 오딧에서 놓친게 많았다.
인데 뭐든 좋지 않음.
런칭 후에도 써보니 너무 대놓고 보이는 버그가 많아서 테넷 기간 길었는데 왜 못잡았냐 하니, 실제 메인넷에서 진짜 돈 넣고 테스트는 안해봐서 valuation이 테넷은 엉망이라 제대로 작동시켜본건 처음이다 라는 말도안되는 변명을 함.
그냥 여기에 많은 돈 넣어주는건 test on prod 하는데 실험쥐가 되어주는 꼴.
고이율은 못참긴 해서 잃어도 되는돈은 넣었다 뻈다 하긴 하는데 큰돈 넣는건 좀..
❤1