Ocorrências de palavrões no código-fonte do kernel Linux ao longo do tempo
https://www.vidarholen.net/contents/wordcount/#fuck*,shit*,damn*,idiot*,retard*,crap*
https://www.vidarholen.net/contents/wordcount/#fuck*,shit*,damn*,idiot*,retard*,crap*
🤣4🤡2
Forwarded from > miyu and oddities ( in decomposition ) 🪖🍓🎀 (miyu ૮₍ ˃ ⤙ ˂ ₎ა)
Counter-Strike turns 26 today!!
On June 19, 1999, CS 1.0 was released
On June 19, 1999, CS 1.0 was released
Treinamento de modelos de codificação sobre-humanos
Por acaso, me deparei com um vídeo onde o pessoal do Cursor discute todo tipo de coisa sobre o LLM. Normalmente, nesses podcasts, todas as declarações são superficiais, para não revelar nenhum segredo acidentalmente. Mas aqui, surpreendentemente, eles mencionaram muitos detalhes técnicos.
Uma pequena lista de tópicos abordados:
- Como fazer RL quando não há uma única resposta correta?
- O que fazer se a probabilidade de obter a resposta "correta" for muito pequena?
- Como podemos garantir que o modelo possa navegar em um projeto grande?
- Como dar suporte a contexto longo?
- Como fazer atribuição de créditos para ferramenta de memória?
- Como o cursor pode aprender com os dados do usuário.
- Por que é ruim olhar para curtidas/descurtidas de respostas?
- Que tipo de infraestrutura é necessária para grandes treinamentos de RL
Por acaso, me deparei com um vídeo onde o pessoal do Cursor discute todo tipo de coisa sobre o LLM. Normalmente, nesses podcasts, todas as declarações são superficiais, para não revelar nenhum segredo acidentalmente. Mas aqui, surpreendentemente, eles mencionaram muitos detalhes técnicos.
Uma pequena lista de tópicos abordados:
- Como fazer RL quando não há uma única resposta correta?
- O que fazer se a probabilidade de obter a resposta "correta" for muito pequena?
- Como podemos garantir que o modelo possa navegar em um projeto grande?
- Como dar suporte a contexto longo?
- Como fazer atribuição de créditos para ferramenta de memória?
- Como o cursor pode aprender com os dados do usuário.
- Por que é ruim olhar para curtidas/descurtidas de respostas?
- Que tipo de infraestrutura é necessária para grandes treinamentos de RL
YouTube
Training superhuman coding models at Cursor
A conversation on the optimal reward for coding agents, infinite context models, and real-time RL.
Cursor team members featured (from left to right): Sualeh Asif (Founder), Charlie Snell (Research), Aman Sanger (Founder), Federico Cassano (Research), and…
Cursor team members featured (from left to right): Sualeh Asif (Founder), Charlie Snell (Research), Aman Sanger (Founder), Federico Cassano (Research), and…
Como fatorar inteiros RSA de 2048 bits com menos de um milhão de qubits
https://arxiv.org/abs/2505.15917
https://arxiv.org/abs/2505.15917
arXiv.org
How to factor 2048 bit RSA integers with less than a million noisy qubits
Planning the transition to quantum-safe cryptosystems requires understanding the cost of quantum attacks on vulnerable cryptosystems. In Gidney+Ekerå 2019, I co-published an estimate stating...
A Lévy-optimal lambda calculus reducer with a backdoor to C
https://github.com/etiams/optiscope
https://github.com/etiams/optiscope
GitHub
GitHub - etiamz/optiscope: A Lévy-optimal lambda calculus reducer with a backdoor to C
A Lévy-optimal lambda calculus reducer with a backdoor to C - etiamz/optiscope
Forwarded from Heartbleed
#app #dicas
- materialgram
Fork do Telegram Desktop que utiliza Material Design e possui mais funções.
https://github.com/kukuruzka165/materialgram
- materialgram
Fork do Telegram Desktop que utiliza Material Design e possui mais funções.
https://github.com/kukuruzka165/materialgram
GitHub
GitHub - kukuruzka165/materialgram: Telegram Desktop fork with material icons and some improvements
Telegram Desktop fork with material icons and some improvements - kukuruzka165/materialgram
🤔1
Hoje é sábado e o MAM(myanonamouse) está aberto para inscrições, lembrando que vc tem que fazer um entrevista e responder, se não me engano, 11 questões, todas pressupondo que vc leu as regras, as perguntas são montadas baseado nelas
https://www.myanonamouse.net/inviteapp.php
#trackers #invite #torrent
https://www.myanonamouse.net/inviteapp.php
#trackers #invite #torrent
Forwarded from (φ (μ (λ)))
Jason Evans, A Scalable Concurrent malloc(3) Implementation for FreeBSD (2006)
https://people.freebsd.org/~jasone/jemalloc/bsdcan2006/jemalloc.pdf
https://people.freebsd.org/~jasone/jemalloc/bsdcan2006/jemalloc.pdf
Acabei de achar a extensão mais foda que ja vi. O raindrop é simplesmente um gerenciador de favoritos. Eu tenho, brincando, mais de 300 favoritos salvos, então às vezes ocorre de eu me perder quando preciso de algo e quando preciso mandar um link para algum amigo preciso ligar o pc etc etc, mas com essa extensão posso acessar todos meus favoritos de forma rápida pelo celular
#dicas #browser
#dicas #browser
raindrop.io
Raindrop.io — All in One Bookmark Manager
All in One Bookmark Manager. For your inspiration, read later, media and stuff.
❤🔥2
Lista de trackers para melhorar velocidade de downloads de BT
BEST Tracker list: (73 trackers)
https://cf.trackerslist.com/best.txt
ALL Tracker list: (149 trackers)
https://cf.trackerslist.com/all.txt
HTTP(S) Tracker list: (71 trackers)
https://cf.trackerslist.com/http.txt
No HTTP Tracker list: (101 trackers)
https://cf.trackerslist.com/nohttp.txt
#trackers #dicas
BEST Tracker list: (73 trackers)
https://cf.trackerslist.com/best.txt
ALL Tracker list: (149 trackers)
https://cf.trackerslist.com/all.txt
HTTP(S) Tracker list: (71 trackers)
https://cf.trackerslist.com/http.txt
No HTTP Tracker list: (101 trackers)
https://cf.trackerslist.com/nohttp.txt
#trackers #dicas
❤🔥2
Forwarded from OpenSignup
Forwarded from OpenSignup
Forwarded from Programming Deadlock
📚 A collection of resources about supercompilation
https://github.com/etiams/supercompilation-resources
https://github.com/etiams/supercompilation-resources
GitHub
GitHub - etiamz/supercompilation-resources: 📚 A collection of resources about supercompilation
📚 A collection of resources about supercompilation - etiamz/supercompilation-resources
https://github.com/apple/ml-diffucoder
https://huggingface.co/apple/DiffuCoder-7B-Base
LLM de difusão pra programação da Apple (não é autoregressão igual o GPT).
https://huggingface.co/apple/DiffuCoder-7B-Base
LLM de difusão pra programação da Apple (não é autoregressão igual o GPT).
GitHub
GitHub - apple/ml-diffucoder: DiffuCoder: Understanding and Improving Masked Diffusion Models for Code Generation
DiffuCoder: Understanding and Improving Masked Diffusion Models for Code Generation - apple/ml-diffucoder
Forwarded from Programming Deadlock
Strategies for very fast Lexers (C)
https://xnacly.me/posts/2025/fast-lexer-strategies
https://xnacly.me/posts/2025/fast-lexer-strategies
xnacly.me
Strategies for very fast Lexers
Making compilation pipelines fast, starting with the tokenizer
👌5