Forwarded from Лидерская позиция
Не так давно у меня была очень интересная встреча с человеком, который занимает довольно высокий пост в одной крупной и известной корпорации. Человек этот отличается проницательностью и тем, что называется "социальный интеллект".
Он потроллил мои, как он сказал, "романтические" представления о карьерном развитии, а на вопрос о том, как на самом деле обстоят дела в корпорациях, немного подумал, а потом наговорил несколько идей, которые я превратил в пост.
Так что если думаете, как не только выжить, но и преуспеть в корпорациях, вот вам инструкция от бывалого человека (не является инвестиционной рекомендацией):
1. Всегда выгляди перегруженным.
Свободный сотрудник вызывает подозрение, а чем меньше у тебя времени - тем больше тебя ценят и уважают.
2. Говори сложнее, чем думаешь.
Не "мы не знаем, что делать", а "мы переосмысливаем стратегическую траекторию". Если ты можешь провести 15-минутную речь, не сказав ничего конкретного, но использовав огромное количество жаргонных слов, англицизмов и модных фреймов - ты готов к повышению.
3. Своевременно поддакивай тем, у кого есть власть.
Даже если идея - бред, а проект - катастрофа. Повышают за лояльность, а не за самое умное мнение в переговорке. Так что сделай правильную ставку и кивай раньше других.
4. Не светись слишком ярко.
Будешь слишком хорош - станешь угрозой.
Слишком сер - сольёшься с мебелью.
Найди свой оттенок корпоративного бежевого, иначе рискуешь быть срезанным корпоративной "газонокосилкой".
5. Заводи альянсы, а не друзей.
Настоящий успех - это не KPI, а иметь людей, которые будут за тебя, когда ты облажаешься. И когда на встрече с СЕО будет кто-то, кто скажет про тебя: "Он красавчик, наш человек".
6. Показывать результат важнее, чем его достигать.
Настоящий успех - это не сделать, а оформить или присвоить. Побеждает не тот, кто решил задачу, а тот, кто её красиво презентовал кому надо.
7. Социальный капитал важнее экспертизы.
Забудут, что ты сделал. Но не забудут, как ты шутил на инвесткомитете.
8. Сохраняй спокойствие во время шторма.
Крайне важно уметь делать лицо "всё под контролем". Особенно, когда контролировать уже нечего.
9. Читай контекст.
Ты можешь быть гением, но если не понимаешь, в какой момент кому что сказать, тебя обойдут.
Твой уровень понимания кулуарных игр часто важнее твоего уровня компетенций.
Что скажете, корпоративные самураи?
Он потроллил мои, как он сказал, "романтические" представления о карьерном развитии, а на вопрос о том, как на самом деле обстоят дела в корпорациях, немного подумал, а потом наговорил несколько идей, которые я превратил в пост.
Так что если думаете, как не только выжить, но и преуспеть в корпорациях, вот вам инструкция от бывалого человека (не является инвестиционной рекомендацией):
1. Всегда выгляди перегруженным.
Свободный сотрудник вызывает подозрение, а чем меньше у тебя времени - тем больше тебя ценят и уважают.
2. Говори сложнее, чем думаешь.
Не "мы не знаем, что делать", а "мы переосмысливаем стратегическую траекторию". Если ты можешь провести 15-минутную речь, не сказав ничего конкретного, но использовав огромное количество жаргонных слов, англицизмов и модных фреймов - ты готов к повышению.
3. Своевременно поддакивай тем, у кого есть власть.
Даже если идея - бред, а проект - катастрофа. Повышают за лояльность, а не за самое умное мнение в переговорке. Так что сделай правильную ставку и кивай раньше других.
4. Не светись слишком ярко.
Будешь слишком хорош - станешь угрозой.
Слишком сер - сольёшься с мебелью.
Найди свой оттенок корпоративного бежевого, иначе рискуешь быть срезанным корпоративной "газонокосилкой".
5. Заводи альянсы, а не друзей.
Настоящий успех - это не KPI, а иметь людей, которые будут за тебя, когда ты облажаешься. И когда на встрече с СЕО будет кто-то, кто скажет про тебя: "Он красавчик, наш человек".
6. Показывать результат важнее, чем его достигать.
Настоящий успех - это не сделать, а оформить или присвоить. Побеждает не тот, кто решил задачу, а тот, кто её красиво презентовал кому надо.
7. Социальный капитал важнее экспертизы.
Забудут, что ты сделал. Но не забудут, как ты шутил на инвесткомитете.
8. Сохраняй спокойствие во время шторма.
Крайне важно уметь делать лицо "всё под контролем". Особенно, когда контролировать уже нечего.
9. Читай контекст.
Ты можешь быть гением, но если не понимаешь, в какой момент кому что сказать, тебя обойдут.
Твой уровень понимания кулуарных игр часто важнее твоего уровня компетенций.
Что скажете, корпоративные самураи?
Media is too big
VIEW IN TELEGRAM
Worlds First Portable Mosquito Air Defense
Detecting mosquitoes with LiDAR and eliminate them with lasers
📼 youtube.com/watch?v=Ta0f0oB4I-Q
indiegogo.com/projects/worlds-first-portable-mosquito-air-defense
Detecting mosquitoes with LiDAR and eliminate them with lasers
indiegogo.com/projects/worlds-first-portable-mosquito-air-defense
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Хулио Иглесиас с испанского дословно переводится как Июль Церкви
Живите теперь с этим
Живите теперь с этим
Media is too big
VIEW IN TELEGRAM
Будущее великолепно
Figure AI CEO Brett Adcock goes viral with F.02 update: One of the most dynamic startups in the industry, Figure AI just dropped a viral new video of the company’s 02 humanoid going through laundry chores at home. X users were impressed by the robot’s dexterity, which appears to be powered by Helix, a generalist Vision-Language-Action model unveiled earlier this year. While the company is currently focused on industrial applications, Adcock has hinted that home trials may be coming up later this year.
Forwarded from Буков
Приложение в App Store, можно скачивать и пользоваться: https://apps.apple.com/pt/app/bookov/id6747921062?l=en-GB
Нам ещё очень много предстоит сделать, и сейчас самое важное — это обратная связь от вас. Пожалуйста, пользуйтесь приложением и рассказывайте нам о своих впечатлениях, и том, чего вам не хватает
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5 4😁1
Philosopher Arthur Schopenhauer encourages us to read what is important, not what is popular:
"The art of not reading is a very important one. It consists in not taking an interest in whatever may be engaging the attention of the general public at any particular time. When some political or ecclesiastical pamphlet, or novel, or poem is making a great commotion, you should remember that he who writes for fools always finds a large public. - A precondition for reading good books is not reading bad ones: for life is short."
***
Философ Артур Шопенгауэр призывает нас читать то, что важно, а не то, что популярно:
"Искусство не читать - очень важное искусство. Оно заключается в том, чтобы не интересоваться тем, что привлекает внимание широкой публики в тот или иной момент. Когда какой-нибудь политический или церковный памфлет, или роман, или поэма вызывают большой ажиотаж, следует помнить, что тот, кто пишет для дураков, всегда находит широкую публику". - Необходимое условие для чтения хороших книг - не читать плохих: ведь жизнь коротка".
Forwarded from Spydell_finance (Paul Spydell)
Развитие ИИ закончено? Тупиковая ветвь эволюции
В архитектуре трансформеров, на котором базируются все без исключения современные LLMs вшит «деструктивный ген», фактически лимитирующий развитие.
В целом, длину контекстного окна ограничивает комбинация факторов: вычислительные ресурсы (квадратичная сложность), объём памяти устройств и необходимость переобучать модель работать с новыми, большими позициями. Поэтому бесконечно увеличивать окно невыгодно и сложно, и индустрия параллельно исследует и другие подходы – например, хранение знаний во внешних базах и выборочный поиск информации вместо подачи всего контекста разом, но это все внешние костыли.
Интеграция ИИ в коммерческое и бизнес применение невозможна с ограниченным и крайне нестабильным контекстным окном, но НИ ОДНА компания НЕ предоставила эффективного решения.
Это базовые, но не все ограничения трансформеров.
▪️Пробел в памяти: самое серьезное ограничение заключается в том, что у трансформеров нет постоянной, долговременной памяти. Они не способны обучаться на лету в ходе взаимодействия с пользователем. Каждый новый факт или навык требует дорогостоящего процесса дообучения или полного переобучения модели. Это кардинально отличает их от биологического интеллекта, который обучается непрерывно и инкрементально. Контекстное окно — это лишь временный буфер, а не механизм для накопления и интеграции знаний.
Сейчас LLMs – абсолютно изолированный от внешнего мира «черный ящик», архитектурно НЕ имеющий возможность самообучаться и в своей основе не может считаться интеллектом, т.к. первый признак интеллекта – способность к обучению.
▪️Проблема «заземления»: модели обучаются на текстах, а не на взаимодействии с реальным миром. Их «понимание» — это статистический анализ закономерностей в данных, а не осмысленное соотнесение символов с реальными объектами, действиями и их последствиями. LLMs не способны строить абстрактные представления о том, как устроен мир. Это гарантированно приводит к галлюцинациям – генерации правдоподобной, но ложной или бессмысленной информации.
Это ограничение лишь частично можно обойти в рамках, так называемого, «физического ИИ», который упомянул Хуанг, но раскрытие данного направления требует серии отдельных постов.
▪️Врожденная негибкость: архитектура трансформера статична. После завершения обучения веса нейронов фиксируются. Модель не может динамически создавать новые связи («синапсы») или изменять свою структуру в ответ на новый опыт, как это делает человеческий мозг. Эта нехватка пластичности означает, что LLM не являются по-настоящему адаптивными системами.
▪️Неразвитость когнитивных функций. Нынешние архитектуры страдают от ограниченной способности к явному рассуждению и пониманию причинно-следственных связей. Они статистически предсказывают следующее слово на основе шаблонов в данных, но не обладают врождённым «здравым смыслом» или истинным пониманием мира. В результате даже лучшие LLM часто ошибаются в фактах и не умеют надёжно планировать многошаговые решения.
Качество данных является не архитектурным, а технологическим ограничением и как раз решается за счет алгоритмов обучения, но об этом в других материалах.
В совокупности эти ограничения показывают, что архитектура трансформеров, несмотря на всю ее мощь, является тупиковой ветвью на пути к созданию универсального интеллекта. Дальнейшее масштабирование может привести к появлению более изощренных и эрудированных «статистических попугаев», но не к рождению истинного разума.
Любая технология в своем развитии следует S-образной кривой: за периодом медленного старта следует взрывной рост, который затем сменяется плато, где дальнейшие улучшения становятся все более сложными и дорогостоящими. Множество данных указывает на то, что большие языковые модели вступают в эту фазу плато.
Понимает ли Сэм Альтман все это? Вне всяких сомнений да, абсолютно, но публичное признание затруднит многомиллиардные раунды финансирования и расщепит адовый хайп вокруг ИИ, обрушим капитализацию ИИ компания на порядок.
Продолжение следует (скорее всего после данных по инфляции в США)
В архитектуре трансформеров, на котором базируются все без исключения современные LLMs вшит «деструктивный ген», фактически лимитирующий развитие.
В целом, длину контекстного окна ограничивает комбинация факторов: вычислительные ресурсы (квадратичная сложность), объём памяти устройств и необходимость переобучать модель работать с новыми, большими позициями. Поэтому бесконечно увеличивать окно невыгодно и сложно, и индустрия параллельно исследует и другие подходы – например, хранение знаний во внешних базах и выборочный поиск информации вместо подачи всего контекста разом, но это все внешние костыли.
Интеграция ИИ в коммерческое и бизнес применение невозможна с ограниченным и крайне нестабильным контекстным окном, но НИ ОДНА компания НЕ предоставила эффективного решения.
Это базовые, но не все ограничения трансформеров.
▪️Пробел в памяти: самое серьезное ограничение заключается в том, что у трансформеров нет постоянной, долговременной памяти. Они не способны обучаться на лету в ходе взаимодействия с пользователем. Каждый новый факт или навык требует дорогостоящего процесса дообучения или полного переобучения модели. Это кардинально отличает их от биологического интеллекта, который обучается непрерывно и инкрементально. Контекстное окно — это лишь временный буфер, а не механизм для накопления и интеграции знаний.
Сейчас LLMs – абсолютно изолированный от внешнего мира «черный ящик», архитектурно НЕ имеющий возможность самообучаться и в своей основе не может считаться интеллектом, т.к. первый признак интеллекта – способность к обучению.
▪️Проблема «заземления»: модели обучаются на текстах, а не на взаимодействии с реальным миром. Их «понимание» — это статистический анализ закономерностей в данных, а не осмысленное соотнесение символов с реальными объектами, действиями и их последствиями. LLMs не способны строить абстрактные представления о том, как устроен мир. Это гарантированно приводит к галлюцинациям – генерации правдоподобной, но ложной или бессмысленной информации.
Это ограничение лишь частично можно обойти в рамках, так называемого, «физического ИИ», который упомянул Хуанг, но раскрытие данного направления требует серии отдельных постов.
▪️Врожденная негибкость: архитектура трансформера статична. После завершения обучения веса нейронов фиксируются. Модель не может динамически создавать новые связи («синапсы») или изменять свою структуру в ответ на новый опыт, как это делает человеческий мозг. Эта нехватка пластичности означает, что LLM не являются по-настоящему адаптивными системами.
▪️Неразвитость когнитивных функций. Нынешние архитектуры страдают от ограниченной способности к явному рассуждению и пониманию причинно-следственных связей. Они статистически предсказывают следующее слово на основе шаблонов в данных, но не обладают врождённым «здравым смыслом» или истинным пониманием мира. В результате даже лучшие LLM часто ошибаются в фактах и не умеют надёжно планировать многошаговые решения.
Качество данных является не архитектурным, а технологическим ограничением и как раз решается за счет алгоритмов обучения, но об этом в других материалах.
В совокупности эти ограничения показывают, что архитектура трансформеров, несмотря на всю ее мощь, является тупиковой ветвью на пути к созданию универсального интеллекта. Дальнейшее масштабирование может привести к появлению более изощренных и эрудированных «статистических попугаев», но не к рождению истинного разума.
Любая технология в своем развитии следует S-образной кривой: за периодом медленного старта следует взрывной рост, который затем сменяется плато, где дальнейшие улучшения становятся все более сложными и дорогостоящими. Множество данных указывает на то, что большие языковые модели вступают в эту фазу плато.
Понимает ли Сэм Альтман все это? Вне всяких сомнений да, абсолютно, но публичное признание затруднит многомиллиардные раунды финансирования и расщепит адовый хайп вокруг ИИ, обрушим капитализацию ИИ компания на порядок.
Продолжение следует (скорее всего после данных по инфляции в США)