AI Coder – Telegram
AI Coder
291 subscribers
82 photos
10 videos
2 files
186 links
AI will not replace you, people who use AI will.
Download Telegram
В последней версии (1.98.0-insider) VS Code с GitHub Copilot Agent Mode подвезли все основные сетки, кроме deepseek r1. Пока халява. Можно кодить ночи напролет)
❤‍🔥1
Начал тестировать xAI Grok 3. По ощущениям, то что говорит Маск близко к правде. Зарядил несколько рефакторингов на разных модулях на go и python. Инференс пыхтит минуты 3-4 и выдает хорошее решение. Там какой-то прям ризонинг есть. Будем посмотреть. Жду бенч от aider leaderboard.
В aider запускается по инструкции https://aider.chat/docs/llms/xai.html.
Да, надо ключик получить и проплатить.
👍3👀2
Из минусов про xAI Grok 3 - Ризонинг ну оооочень долгий
Вот у ребят тоже интересный фидбек
Слушайте, мы тестим Grok-3 и в восторге. Модель ищет информацию в интернете и соцсети X в реальном времени и дает актуальную обратную связь. База знаний обновляется постоянно, модель не ограничена фиксированным "срезом" данных, как некоторые другие модели.

Такого нет у OpenAI, Anthropic, где более строгие рамки по актуальности данных.

Но есть такое у Google - чемпиона по поиску.

У Grok акцент ещё на экосистему X, может анализировать посты, профили пользователей на X, а также ссылки, изображения, PDF-файлы и другие материалы.

Модель также может сгенерировать картинку, текст, скоро появится ещё голос.

Все это работает в экосистеме Х, которая запускает ещё и свои платежи. А с учетом того, как ИИ -агенты сейчас плотно внедряются в платежи и коммерцию, об этом читайте здесь, у Маска получается создать массивную вещь.
🔥2
У них в приложении сразу и think и deep research! И бесплатно. У OpenAI это 200 баксов в про версии
👍1
grok-beta это какой-то ранний вариант grok 3. Но скоро уже все будет и реально потестирую
Компания Anthropic решила сделать ход конем и сделала свой Aider - называется Claude Code) Ну и представили Sonnet 3.5 за гуманные деньги $3 за 1 млн инпут токенов и $15 за 1 млн аутпут токенов. Представили бенч где sonnet 3.7 всех рвет. Посмотрим что там, отпишусь по результатам.
Ссылочка https://www.anthropic.com/news/claude-3-7-sonnet
👍5🔥2
Токенов жрет этот Claude Code нещадно. То есть в Aider я прям беру выделяю нужные мне файлы и с ними работаю, а тут оно идет и шерстит как claude code угодно и кушает денежку). НО зато это конечно значительно больше уже похоже на агентную систему
Вышел новый бенч у Aider по sonnet-3.7, ну и конечно же он обходит sonnet-3.5 + r1. По цене выходит пока дороже в два раза, но зато это самая быстрая модель с хорошим качеством в сравнение с sonnet-3.5 + r1, ризонинг у r1 медленнее

https://aider.chat/docs/leaderboards/
👍1
Важная книга. Короткий пересказ
Книга Technological Republic: hard power, soft belief, future of the West. От Alex Karp, философ, юрист, CEO Palantir (с Тилем создал - 20 лет продают софт для слежки армии, разведке, корпам на $3 млрд/год). По совету Степы Гершуни:

Часть I. Век софта
- Даже Франклин и Джефферсон были инженеры.. А Долина так-то выросла из ВПК. А щас? Инженеры отошли от целей страны и работы с gov ради своих игрушек и индивидуализма..
- Но они же живут под зонтиком безопасности, не внося свой вклад (и не общаясь с армией). Так-то ядерную бомбу предложили Эйнштейн и Szilard. И Нобель когда-то отрицал военную роль динамита
- Вступаем в век коллаборации интеллекта людей и synthetic (AI). От века ядерного сдерживанияего плодов) идем в AI deterrence: рои дронов в Китае итп
- Бизнес и политика же стоят на рисках бунта. И в авторитарных странах власти ближе к фаундерам а-ля Долина, чем в США, и не будут тормозить с военным AI (а Минобороны США в 2024 на AI дали всего $1.8 млрд)
- Китай строит Левиафана, а не демократизируется по мере роста богатства. Китай оч. изучает прочие культуры, а не как мы. EU тратила 1.5% ВВП на оборону, US 3-5%

Ч. II. Идейное обнищание США
- Долина утонула в тривиальное и консьюмерское, засосав таланты и $ без целеполагания, США ушли от больших инноваций как атом и инет
- Это случайность, что Джобс был контркультурщиком, а не за свое общество. Мир он не поменял, хоть и много art + engineering. И вся Долина пошла за его тезисом: играть в игрушечки, инфантильно не видя страну и мир
- Техноутописты верят, что проблемы решатся сами. Нет, нужно вновь работать с властями, а не отрицать оборонку и госсектор
- Вокизм убил authentic intellectual risk-taking и общественную дискуссию. И фаундеры все самоустранились в "нейтралитет", отсюда и патакания сотрудникам Google “мы против работы с ВПК”. Кстати, антиколониализм - это ложь, просто девиация в медийном поле от леваков 1970ых, см реальные данные по ВВП итп

III. Инженерное мышление
- Оно против конформизма и за результат, т.е. не как в типичных корпорациях и в госсекторе
- Рои пчел распределенно ищут новые места для ульев, и стартапы также наиболее точно решают проблемы. А в бюрократиях идет оч энергозатратная война за присвоение побед и спихивание вины за факапы, где булшитеры шлют сигналы статуса и власти, и таланты умолкают в такой среде. Поэтому Долина и выстрелила по сравнению с оч традиционной корпоративной машиной США
- Asch и Milgram изучали конформизм и подстройку под членов группы и власти - это оч мощные черты людей, а в Долине осталась культура конструктивного неподчинения, и только так и можно создать что-то значимое
- За 30 лет в Конгрессе упала доля служивших в армии с 60% до 18%. Establishment и бюрократия мутировали чисто к своему самомасштабированию и выживанию
- Tetlock открыл (изучал 28 тыс прогнозов), что мало экспертов (т.н. лисы) готовы сталкиваться с реальностью (корректировать себя, использовать противоречивые источники и много идей) - но кто так делает - оч успешны. И чем неизвестнее эксперты, тем они точнее. Инженеры также вглядываются в реальный мир, и всем США пришла пора так делать

IV. Пересоздать республику
- Только 11% из 2000 миллиардеров в США пробовали себя в политике. В конгрессе ЗП $170к/год, глава ФРС $190к/год. Дискуссии повышать ли ЗП людям принимающим решения на триллионы $ шли аж с 1787г. В Долине опционы дают ownership/сопричастность всем сотрудникам, что оч важно
- Нужна смена нашей ригидной культуры: больше risk sharing, видеть что мир полон опасных игроков, открывать госсектор для внешних игроков и стартапов
- Нашей нации надо вспоминать свои коллективную идентичность и предназначение, наша культура чет слишком фрагментировалась
- В поисках новых моральных ориентиров для всей страны могут быть конфликты между сторонниками прошлого/чувство вины/итп и тем, что есть сейчас
- Культуры все же разные, это факт, хватит иллюзий. Западной цивилизации сейчас нужна и защита себя, и вообще дискуссия об этом

**

Водянисто, моего summary достаточно. Но см. America First. И еще мне советовали Government Gangsters
👀2🔥1
В perplexity платной версии завезли sonnet-3.7. Срочно переключиться чтоб качество нарастить 🚀
👍2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🔥Google сделали Gemini Code Assist бесплатным для всех стран.

🌐 Поддержка всех языков программирования в открытом доступе
💡 Окно контекста 128K токенов

https://blog.google/technology/developers/gemini-code-assist-free/

@ai_machinelearning_big_data
Из интересного Google предствавил конкурента Github Copilot - http://github.com/apps/gemini-code-assist.
В смысле, что теперь вместо гитхаб копилота на гитхабе gemini будет хозяйничать - Написать описание к PR, Начать делать тикет, Выдать подробную информацию по задаче
Чтоб вы понимали сейчас команда OpenAI презентует уже новую сетку ChatGPT-4.5: которая разговаривает уже еще ближе к человеку и больше шансов на прохождение теста Тьюринга ) (intuitive and knowledgeble)

Они ее позиционируют как замену 4o как минимум.

https://www.youtube.com/watch?v=cfRYp0nItZ8
🔥2
Столкнулся с тем, что многие не понимают что такое контекстное окно. Вот базовое объяснение

Контекстное окно в больших языковых моделях (LLM) — это временная "рабочая память", которая определяет, сколько текста модель может одновременно анализировать и учитывать при генерации ответа. Вот ключевые аспекты:

Как это работает:

1. Токенизация
Текст разбивается на токены — части слов, символы или целые слова. Например, слово "аморальный" может разбиться на два токена: "а" и "моральный". На русском языке 1 токен ≈ 2.5 символа.

2. Иерархия памяти
- Основной контекст (окно) — данные, которые модель использует прямо сейчас
- Внешний контекст — долгосрочное хранилище (аналог жёсткого диска), откуда модель может извлекать информацию по мере необходимости
👍1