Хулио Иглесиас с испанского дословно переводится как Июль Церкви
Живите теперь с этим
Живите теперь с этим
Media is too big
VIEW IN TELEGRAM
Будущее великолепно
Figure AI CEO Brett Adcock goes viral with F.02 update: One of the most dynamic startups in the industry, Figure AI just dropped a viral new video of the company’s 02 humanoid going through laundry chores at home. X users were impressed by the robot’s dexterity, which appears to be powered by Helix, a generalist Vision-Language-Action model unveiled earlier this year. While the company is currently focused on industrial applications, Adcock has hinted that home trials may be coming up later this year.
Forwarded from Буков
Приложение в App Store, можно скачивать и пользоваться: https://apps.apple.com/pt/app/bookov/id6747921062?l=en-GB
Нам ещё очень много предстоит сделать, и сейчас самое важное — это обратная связь от вас. Пожалуйста, пользуйтесь приложением и рассказывайте нам о своих впечатлениях, и том, чего вам не хватает
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5 4😁1
Philosopher Arthur Schopenhauer encourages us to read what is important, not what is popular:
"The art of not reading is a very important one. It consists in not taking an interest in whatever may be engaging the attention of the general public at any particular time. When some political or ecclesiastical pamphlet, or novel, or poem is making a great commotion, you should remember that he who writes for fools always finds a large public. - A precondition for reading good books is not reading bad ones: for life is short."
***
Философ Артур Шопенгауэр призывает нас читать то, что важно, а не то, что популярно:
"Искусство не читать - очень важное искусство. Оно заключается в том, чтобы не интересоваться тем, что привлекает внимание широкой публики в тот или иной момент. Когда какой-нибудь политический или церковный памфлет, или роман, или поэма вызывают большой ажиотаж, следует помнить, что тот, кто пишет для дураков, всегда находит широкую публику". - Необходимое условие для чтения хороших книг - не читать плохих: ведь жизнь коротка".
Forwarded from Spydell_finance (Paul Spydell)
Развитие ИИ закончено? Тупиковая ветвь эволюции
В архитектуре трансформеров, на котором базируются все без исключения современные LLMs вшит «деструктивный ген», фактически лимитирующий развитие.
В целом, длину контекстного окна ограничивает комбинация факторов: вычислительные ресурсы (квадратичная сложность), объём памяти устройств и необходимость переобучать модель работать с новыми, большими позициями. Поэтому бесконечно увеличивать окно невыгодно и сложно, и индустрия параллельно исследует и другие подходы – например, хранение знаний во внешних базах и выборочный поиск информации вместо подачи всего контекста разом, но это все внешние костыли.
Интеграция ИИ в коммерческое и бизнес применение невозможна с ограниченным и крайне нестабильным контекстным окном, но НИ ОДНА компания НЕ предоставила эффективного решения.
Это базовые, но не все ограничения трансформеров.
▪️Пробел в памяти: самое серьезное ограничение заключается в том, что у трансформеров нет постоянной, долговременной памяти. Они не способны обучаться на лету в ходе взаимодействия с пользователем. Каждый новый факт или навык требует дорогостоящего процесса дообучения или полного переобучения модели. Это кардинально отличает их от биологического интеллекта, который обучается непрерывно и инкрементально. Контекстное окно — это лишь временный буфер, а не механизм для накопления и интеграции знаний.
Сейчас LLMs – абсолютно изолированный от внешнего мира «черный ящик», архитектурно НЕ имеющий возможность самообучаться и в своей основе не может считаться интеллектом, т.к. первый признак интеллекта – способность к обучению.
▪️Проблема «заземления»: модели обучаются на текстах, а не на взаимодействии с реальным миром. Их «понимание» — это статистический анализ закономерностей в данных, а не осмысленное соотнесение символов с реальными объектами, действиями и их последствиями. LLMs не способны строить абстрактные представления о том, как устроен мир. Это гарантированно приводит к галлюцинациям – генерации правдоподобной, но ложной или бессмысленной информации.
Это ограничение лишь частично можно обойти в рамках, так называемого, «физического ИИ», который упомянул Хуанг, но раскрытие данного направления требует серии отдельных постов.
▪️Врожденная негибкость: архитектура трансформера статична. После завершения обучения веса нейронов фиксируются. Модель не может динамически создавать новые связи («синапсы») или изменять свою структуру в ответ на новый опыт, как это делает человеческий мозг. Эта нехватка пластичности означает, что LLM не являются по-настоящему адаптивными системами.
▪️Неразвитость когнитивных функций. Нынешние архитектуры страдают от ограниченной способности к явному рассуждению и пониманию причинно-следственных связей. Они статистически предсказывают следующее слово на основе шаблонов в данных, но не обладают врождённым «здравым смыслом» или истинным пониманием мира. В результате даже лучшие LLM часто ошибаются в фактах и не умеют надёжно планировать многошаговые решения.
Качество данных является не архитектурным, а технологическим ограничением и как раз решается за счет алгоритмов обучения, но об этом в других материалах.
В совокупности эти ограничения показывают, что архитектура трансформеров, несмотря на всю ее мощь, является тупиковой ветвью на пути к созданию универсального интеллекта. Дальнейшее масштабирование может привести к появлению более изощренных и эрудированных «статистических попугаев», но не к рождению истинного разума.
Любая технология в своем развитии следует S-образной кривой: за периодом медленного старта следует взрывной рост, который затем сменяется плато, где дальнейшие улучшения становятся все более сложными и дорогостоящими. Множество данных указывает на то, что большие языковые модели вступают в эту фазу плато.
Понимает ли Сэм Альтман все это? Вне всяких сомнений да, абсолютно, но публичное признание затруднит многомиллиардные раунды финансирования и расщепит адовый хайп вокруг ИИ, обрушим капитализацию ИИ компания на порядок.
Продолжение следует (скорее всего после данных по инфляции в США)
В архитектуре трансформеров, на котором базируются все без исключения современные LLMs вшит «деструктивный ген», фактически лимитирующий развитие.
В целом, длину контекстного окна ограничивает комбинация факторов: вычислительные ресурсы (квадратичная сложность), объём памяти устройств и необходимость переобучать модель работать с новыми, большими позициями. Поэтому бесконечно увеличивать окно невыгодно и сложно, и индустрия параллельно исследует и другие подходы – например, хранение знаний во внешних базах и выборочный поиск информации вместо подачи всего контекста разом, но это все внешние костыли.
Интеграция ИИ в коммерческое и бизнес применение невозможна с ограниченным и крайне нестабильным контекстным окном, но НИ ОДНА компания НЕ предоставила эффективного решения.
Это базовые, но не все ограничения трансформеров.
▪️Пробел в памяти: самое серьезное ограничение заключается в том, что у трансформеров нет постоянной, долговременной памяти. Они не способны обучаться на лету в ходе взаимодействия с пользователем. Каждый новый факт или навык требует дорогостоящего процесса дообучения или полного переобучения модели. Это кардинально отличает их от биологического интеллекта, который обучается непрерывно и инкрементально. Контекстное окно — это лишь временный буфер, а не механизм для накопления и интеграции знаний.
Сейчас LLMs – абсолютно изолированный от внешнего мира «черный ящик», архитектурно НЕ имеющий возможность самообучаться и в своей основе не может считаться интеллектом, т.к. первый признак интеллекта – способность к обучению.
▪️Проблема «заземления»: модели обучаются на текстах, а не на взаимодействии с реальным миром. Их «понимание» — это статистический анализ закономерностей в данных, а не осмысленное соотнесение символов с реальными объектами, действиями и их последствиями. LLMs не способны строить абстрактные представления о том, как устроен мир. Это гарантированно приводит к галлюцинациям – генерации правдоподобной, но ложной или бессмысленной информации.
Это ограничение лишь частично можно обойти в рамках, так называемого, «физического ИИ», который упомянул Хуанг, но раскрытие данного направления требует серии отдельных постов.
▪️Врожденная негибкость: архитектура трансформера статична. После завершения обучения веса нейронов фиксируются. Модель не может динамически создавать новые связи («синапсы») или изменять свою структуру в ответ на новый опыт, как это делает человеческий мозг. Эта нехватка пластичности означает, что LLM не являются по-настоящему адаптивными системами.
▪️Неразвитость когнитивных функций. Нынешние архитектуры страдают от ограниченной способности к явному рассуждению и пониманию причинно-следственных связей. Они статистически предсказывают следующее слово на основе шаблонов в данных, но не обладают врождённым «здравым смыслом» или истинным пониманием мира. В результате даже лучшие LLM часто ошибаются в фактах и не умеют надёжно планировать многошаговые решения.
Качество данных является не архитектурным, а технологическим ограничением и как раз решается за счет алгоритмов обучения, но об этом в других материалах.
В совокупности эти ограничения показывают, что архитектура трансформеров, несмотря на всю ее мощь, является тупиковой ветвью на пути к созданию универсального интеллекта. Дальнейшее масштабирование может привести к появлению более изощренных и эрудированных «статистических попугаев», но не к рождению истинного разума.
Любая технология в своем развитии следует S-образной кривой: за периодом медленного старта следует взрывной рост, который затем сменяется плато, где дальнейшие улучшения становятся все более сложными и дорогостоящими. Множество данных указывает на то, что большие языковые модели вступают в эту фазу плато.
Понимает ли Сэм Альтман все это? Вне всяких сомнений да, абсолютно, но публичное признание затруднит многомиллиардные раунды финансирования и расщепит адовый хайп вокруг ИИ, обрушим капитализацию ИИ компания на порядок.
Продолжение следует (скорее всего после данных по инфляции в США)
Forwarded from Рациональные числа
Как изменилась среднегодовая зарплата в странах ОЭСР по паритету покупательной способности, 1995/2023 (oscarleo)
В открытых источниках отсутствуют данные по годовым заработным платам в России с учётом инфляции и ППС, поэтому можно сравнить подушевой ВВП с корректировкой на покупательную способность денег. Согласно UNData, получатся 5,6 тысячи $ в 1995 году против 44 тысяч в 2024
Источник данных — Average Annual Wages OECD
Другие данные по производительности труда:
— Уровень заработной платы в зависимости от образования и часов работы в США, 2021
— Сколько часов в неделю в среднем работают американцы с различным уровнем дохода, 2022
— Среднее число рабочих часов и средняя заработная плата в неделю в странах ОЭСР, 2022
— Производительность труда и реальная медианная заработная плата в странах ОЭСР, 1995–2013
В открытых источниках отсутствуют данные по годовым заработным платам в России с учётом инфляции и ППС, поэтому можно сравнить подушевой ВВП с корректировкой на покупательную способность денег. Согласно UNData, получатся 5,6 тысячи $ в 1995 году против 44 тысяч в 2024
Источник данных — Average Annual Wages OECD
Другие данные по производительности труда:
— Уровень заработной платы в зависимости от образования и часов работы в США, 2021
— Сколько часов в неделю в среднем работают американцы с различным уровнем дохода, 2022
— Среднее число рабочих часов и средняя заработная плата в неделю в странах ОЭСР, 2022
— Производительность труда и реальная медианная заработная плата в странах ОЭСР, 1995–2013
Forwarded from Tips AI | IT & AI
Разработчик так подсел на Claude Code, что подстроил под него свой сон.
Лимиты в Claude обновляются каждые 5 часов. Обычно, потратил токены, жди. Но он решил ждать во сне.
Тратит лимит за 1–3 часа, потом спит 2–3 часа и просыпается ровно к обновлению. В итоге кодит в 10 раз больше.
Теперь его биоритмы синхронизированы не с солнцем, а с серверами Anthropic☕️
@tips_ai
Лимиты в Claude обновляются каждые 5 часов. Обычно, потратил токены, жди. Но он решил ждать во сне.
Тратит лимит за 1–3 часа, потом спит 2–3 часа и просыпается ровно к обновлению. В итоге кодит в 10 раз больше.
Теперь его биоритмы синхронизированы не с солнцем, а с серверами Anthropic
@tips_ai
Please open Telegram to view this post
VIEW IN TELEGRAM