Reddit в иске показали, как поймали Perplexity в ловушку
#новость #reddit #perplexity
Reddit подал иск в федеральный суд Манхэттена против ИИ-поисковика Perplexity, а также трех компаний, которые помогают ему собирать данные (SerpApi, Oxylabs и AWMProxy). В иске говорится, что Perplexity и партнеры занимались "промышленным" сбором контента, обходя технические ограничения и не заключая лицензионных соглашений, как это делают, по словам Reddit, например Google и OpenAI.
Чтобы подкрепить обвинения, в Reddit подстроили "ловушку". Компания создала тестовый пост, который был доступен только для краулера Google и не был виден обычным пользователям и внешним сборщикам данных. По утверждению Reddit, содержимое этого поста уже через несколько часов появилось в ответах Perplexity. Для Reddit это прямое доказательство того, что Perplexity (через сторонних парсеров результатов поиска Google) получает закрытые для нее данные. В тексте иска этот прием сравнивается с помеченными купюрами, которые иногда используют следователи.
Reddit утверждает, что направлял Perplexity письмо с требованием прекратить доступ к контенту еще в мае 2024 года, но с того момента количество ссылок Perplexity на материалы Reddit «выросло в 40 раз». По версии Reddit, Perplexity и подрядчики сознательно обходили технические барьеры, чтобы вытянуть тексты с площадки и встроить их в ответы для пользователей. Reddit называет это недобросовестной конкуренцией и попыткой получить ценную базу пользовательских обсуждений бесплатно — в то время как другим компаниям она продается по лицензии.
Perplexity публично отвергает обвинения. Компания говорит, что не обучает свои базовые модели напрямую на данных Reddit, а лишь «суммирует публично доступные обсуждения» и всегда дает ссылки на источники. Представители Perplexity прямо называют позицию Reddit "шантажом", а сам иск — продолжением переговоров Reddit о продаже доступа к своей базе крупным игрокам.
#новость #reddit #perplexity
Reddit подал иск в федеральный суд Манхэттена против ИИ-поисковика Perplexity, а также трех компаний, которые помогают ему собирать данные (SerpApi, Oxylabs и AWMProxy). В иске говорится, что Perplexity и партнеры занимались "промышленным" сбором контента, обходя технические ограничения и не заключая лицензионных соглашений, как это делают, по словам Reddit, например Google и OpenAI.
Чтобы подкрепить обвинения, в Reddit подстроили "ловушку". Компания создала тестовый пост, который был доступен только для краулера Google и не был виден обычным пользователям и внешним сборщикам данных. По утверждению Reddit, содержимое этого поста уже через несколько часов появилось в ответах Perplexity. Для Reddit это прямое доказательство того, что Perplexity (через сторонних парсеров результатов поиска Google) получает закрытые для нее данные. В тексте иска этот прием сравнивается с помеченными купюрами, которые иногда используют следователи.
Reddit утверждает, что направлял Perplexity письмо с требованием прекратить доступ к контенту еще в мае 2024 года, но с того момента количество ссылок Perplexity на материалы Reddit «выросло в 40 раз». По версии Reddit, Perplexity и подрядчики сознательно обходили технические барьеры, чтобы вытянуть тексты с площадки и встроить их в ответы для пользователей. Reddit называет это недобросовестной конкуренцией и попыткой получить ценную базу пользовательских обсуждений бесплатно — в то время как другим компаниям она продается по лицензии.
Perplexity публично отвергает обвинения. Компания говорит, что не обучает свои базовые модели напрямую на данных Reddit, а лишь «суммирует публично доступные обсуждения» и всегда дает ссылки на источники. Представители Perplexity прямо называют позицию Reddit "шантажом", а сам иск — продолжением переговоров Reddit о продаже доступа к своей базе крупным игрокам.
❤4👍2
Великий крах качества программного обеспечения: как мы нормализовали катастрофу
#статья #ai #программирование
В Apple Calculator утечка 32 ГБ оперативной памяти.
Не используется. Не выделено. Утечка. Простое приложение-калькулятор потребляет больше памяти, чем большинство компьютеров имело десять лет назад.
Двадцать лет назад это привело бы к экстренным патчам и пост-мортемам. Сегодня это просто очередной отчёт об ошибке в череде подобных.
Мы довели программные катастрофы до того, что утечка 32 ГБ оперативной памяти из Calculator едва ли попадает в новости. Дело не в ИИ. Кризис качества начался за годы до появления ChatGPT. ИИ просто превратил существующую некомпетентность в оружие.
Ссылка на статью
Life-Hack - AI
#статья #ai #программирование
В Apple Calculator утечка 32 ГБ оперативной памяти.
Не используется. Не выделено. Утечка. Простое приложение-калькулятор потребляет больше памяти, чем большинство компьютеров имело десять лет назад.
Двадцать лет назад это привело бы к экстренным патчам и пост-мортемам. Сегодня это просто очередной отчёт об ошибке в череде подобных.
Мы довели программные катастрофы до того, что утечка 32 ГБ оперативной памяти из Calculator едва ли попадает в новости. Дело не в ИИ. Кризис качества начался за годы до появления ChatGPT. ИИ просто превратил существующую некомпетентность в оружие.
Ссылка на статью
Life-Hack - AI
Хабр
Великий крах качества программного обеспечения: как мы нормализовали катастрофу
В Apple Calculator утечка 32 ГБ оперативной памяти. Не используется. Не выделено. Утечка. Простое приложение-калькулятор потребляет больше памяти, чем большинство компьютеров имело десять лет назад....
👍6🔥4
GPT-5 Pro помог математику закрыть задачу оптимизации, существовавшую 42 года
#новость #gpt5 #openai
Профессор математики Эрнест Рю из Калифорнийского университета в Лос-Анджелесе рассказал, что вместе с моделью GPT-5 Pro смог закрыть задачу оптимизации, которую считали нерешенной больше 40 лет. Речь идет о сходимости ускоренного метода Нестерова — одного из базовых алгоритмов выпуклой оптимизации, предложенного в 1983 году. По словам Рю, GPT-5 Pro предлагала кандидаты на ключевые математические конструкции, а он отбирал рабочие и оформлял строгие теоремы. Решение описано в трех ветках X: первая, вторая, третья.
Рю использовал GPT-5 Pro, чтобы построить убывающие энергетические функции — по сути, математические индикаторы, которые должны только уменьшаться и тем самым "прижимать" траекторию алгоритма к решению. С их помощью он доказал две ключевые вещи. Во-первых, что траектория в непрерывной модели ускоренного спуска (так называемое дифференциальное уравнение Нестерова) действительно не разъезжается по множеству минимумов, а стабилизируется в одной точке. Во-вторых, что то же самое верно и для реального дискретного алгоритма Нестерова, который используется в оптимизации на практике: последовательности итераций сходятся к одному минимуму при стандартных мягких условиях (функция выпуклая, гладкая, с липшицевым градиентом и с существующим минимумом). По словам Рю, аналогичную технику он применил и к более современному ускоренному методу OGM, показав его сходимость тем же способом.
По описанию Рю, работа шла как исследовательская сессия: он ставил подзадачи и просил GPT-5 Pro предложить путь — например, какую именно энергию ввести, какую лемму сформулировать, как перенести рассуждение из непрерывного времени в дискретные шаги алгоритма. Около 80% предложений модели были неправильными или бесполезными. Но оставшиеся 20% дали новые зацепки, которые он развил до полноценного доказательства. В его формулировке, без такой "машины перебора" он бы, скорее всего, бросил попытку за три дня — просто потому что руками перебирать столько вариантов слишком тяжело. С моделью — менее недели и около 30 часов его личной работы.
Сейчас Рю готовит препринт с полным доказательством для выкладки на arXiv и собирается отправить работу в рецензируемый журнал. По его словам, это "не история про то, что ИИ заменит математика", а про то, что больше не обязательно по неделе вручную перебирать десятки вариантов лемм и вспомогательных конструкций. Он отдельно призвал исследователей — не только в оптимизации, но и в других областях — начинать использовать модели ИИ как ускоритель перебора идей и черновиков доказательств, в то время как человек остается тем, кто проверяет корректность и собирает финальную теорему.
Life-Hack - AI
#новость #gpt5 #openai
Профессор математики Эрнест Рю из Калифорнийского университета в Лос-Анджелесе рассказал, что вместе с моделью GPT-5 Pro смог закрыть задачу оптимизации, которую считали нерешенной больше 40 лет. Речь идет о сходимости ускоренного метода Нестерова — одного из базовых алгоритмов выпуклой оптимизации, предложенного в 1983 году. По словам Рю, GPT-5 Pro предлагала кандидаты на ключевые математические конструкции, а он отбирал рабочие и оформлял строгие теоремы. Решение описано в трех ветках X: первая, вторая, третья.
Рю использовал GPT-5 Pro, чтобы построить убывающие энергетические функции — по сути, математические индикаторы, которые должны только уменьшаться и тем самым "прижимать" траекторию алгоритма к решению. С их помощью он доказал две ключевые вещи. Во-первых, что траектория в непрерывной модели ускоренного спуска (так называемое дифференциальное уравнение Нестерова) действительно не разъезжается по множеству минимумов, а стабилизируется в одной точке. Во-вторых, что то же самое верно и для реального дискретного алгоритма Нестерова, который используется в оптимизации на практике: последовательности итераций сходятся к одному минимуму при стандартных мягких условиях (функция выпуклая, гладкая, с липшицевым градиентом и с существующим минимумом). По словам Рю, аналогичную технику он применил и к более современному ускоренному методу OGM, показав его сходимость тем же способом.
По описанию Рю, работа шла как исследовательская сессия: он ставил подзадачи и просил GPT-5 Pro предложить путь — например, какую именно энергию ввести, какую лемму сформулировать, как перенести рассуждение из непрерывного времени в дискретные шаги алгоритма. Около 80% предложений модели были неправильными или бесполезными. Но оставшиеся 20% дали новые зацепки, которые он развил до полноценного доказательства. В его формулировке, без такой "машины перебора" он бы, скорее всего, бросил попытку за три дня — просто потому что руками перебирать столько вариантов слишком тяжело. С моделью — менее недели и около 30 часов его личной работы.
Сейчас Рю готовит препринт с полным доказательством для выкладки на arXiv и собирается отправить работу в рецензируемый журнал. По его словам, это "не история про то, что ИИ заменит математика", а про то, что больше не обязательно по неделе вручную перебирать десятки вариантов лемм и вспомогательных конструкций. Он отдельно призвал исследователей — не только в оптимизации, но и в других областях — начинать использовать модели ИИ как ускоритель перебора идей и черновиков доказательств, в то время как человек остается тем, кто проверяет корректность и собирает финальную теорему.
Life-Hack - AI
🔥4👍3❤2
Вышла Grokipedia от xAI — аналог «Википедии» с нейросетями и проверкой фактов
#grok #ai #новость
Илон Маск представил онлайн-энциклопедию с проверкой фактов с помощью языковой модели Grok. Пока доступна версия 0.1, которая может работать с ошибками, но Маск уверен, что даже так Grokipedia лучше привычной «Википедии».
На главной странице Grokipedia есть строка поиска статей. В самих статьях нет картинок и видео, только текст и таблицы. В конце каждой статьи находится блок ссылок на источники, а в начале — информация о том, когда последний раз Grok проводил проверку фактов.
В конце некоторых статей есть отметка о том, что оригинальную статью взяли с «Википедии» и адаптировали. Например, такую плашку можно найти в статье про MacBook Air. В материале про OpenAI такой отметки уже нет.
На странице каждой статьи можно посмотреть историю изменений. При этом система не показывает никнеймы пользователей, которые предложили и внесли правки.
Всего в Grokipedia сейчас 885 тыс. материалов на английском языке. В оригинальной «Википедии» содержится более 7 млн англоязычных страниц. По какому именно принципу разработчики переносят материалы — неизвестно. На сайте нет кнопки для создания новой статьи. Вероятно, администраторы пока сами решают, какие темы стоит освещать на сайте.
Подробней прочитать новость
Life-Hack - AI
#grok #ai #новость
Илон Маск представил онлайн-энциклопедию с проверкой фактов с помощью языковой модели Grok. Пока доступна версия 0.1, которая может работать с ошибками, но Маск уверен, что даже так Grokipedia лучше привычной «Википедии».
На главной странице Grokipedia есть строка поиска статей. В самих статьях нет картинок и видео, только текст и таблицы. В конце каждой статьи находится блок ссылок на источники, а в начале — информация о том, когда последний раз Grok проводил проверку фактов.
В конце некоторых статей есть отметка о том, что оригинальную статью взяли с «Википедии» и адаптировали. Например, такую плашку можно найти в статье про MacBook Air. В материале про OpenAI такой отметки уже нет.
На странице каждой статьи можно посмотреть историю изменений. При этом система не показывает никнеймы пользователей, которые предложили и внесли правки.
Всего в Grokipedia сейчас 885 тыс. материалов на английском языке. В оригинальной «Википедии» содержится более 7 млн англоязычных страниц. По какому именно принципу разработчики переносят материалы — неизвестно. На сайте нет кнопки для создания новой статьи. Вероятно, администраторы пока сами решают, какие темы стоит освещать на сайте.
Подробней прочитать новость
Life-Hack - AI
❤3👍3
Ловим «взрослые» сцены на видео: как ИИ помогает редакторам
#ai
Поводом для написания этой заметки стало обсуждение на недавнем отраслевом мероприятии задач мультимодерации контента: как быстро и надёжно находить «взрослые» сцены в длинных видео и автоматически подсвечивать фрагменты для ручной проверки. Похожие кейсы регулярно встречаются и в открытых соревнованиях по ИИ (например, в подборке задач Wink AI Challenge на Codenrock).
Читать статью
Life-Hack - AI
#ai
Поводом для написания этой заметки стало обсуждение на недавнем отраслевом мероприятии задач мультимодерации контента: как быстро и надёжно находить «взрослые» сцены в длинных видео и автоматически подсвечивать фрагменты для ручной проверки. Похожие кейсы регулярно встречаются и в открытых соревнованиях по ИИ (например, в подборке задач Wink AI Challenge на Codenrock).
Читать статью
Life-Hack - AI
👍2
Известные люди из мира IT призвали запретить разработку сверх-ИИ, пока не будет доказана его безопасность
#ai #иб
Сотни влиятельных фигур, от Стива Возняка до Ричарда Брэнсона, подписали открытое письмо с призывом запретить разработку сверхразума на основе искусственного интеллекта, пока учёные не достигнут консенсуса о его безопасности и управляемости.
Документ под названием Statement on Superintelligence подготовила организация Future of Life Institute (FLI). В число тех, кто его подписал, вошли два «крёстных отца ИИ» — Джеффри Хинтон и Йошуа Бенджио. В список также попали соучредитель Apple Стив Возняк, основатель Virgin Group Ричард Брэнсон, бывший главный стратег президента США Дональда Трампа Стив Бэннон, бывший председатель Объединённого комитета начальников штабов Майк Маллен и другие. Кроме того, поддержку инициативе выразили Гарри и Меган, герцог и герцогиня Сассекские.
Среди тех, кто не поддержал инициативу, оказались генеральный директор OpenAI Сэм Альтман, соучредитель DeepMind и руководитель ИИ-подразделения Microsoft Мустафа Сулейман, глава Anthropic Дарио Амодеи, советник Белого дома по ИИ и криптовалютам Дэвид Сакс, а также основатель xAI Илон Маск. Последний ранее подписал письмо FLI 2023 года с призывом приостановить разработку ИИ-моделей, более продвинутых, чем GPT-4.
В письме приводятся результаты недавнего опроса FLI, согласно которому только 5% американцев поддерживают быструю и нерегулируемую разработку передовых ИИ-моделей. Более 73% выступают за жёсткое регулирование ИИ, а около 64% считают, что создание сверхразума, то есть модели ИИ, превосходящей человеческий интеллект, необходимо запретить до подтверждения её безопасности и контролируемости.
Активисты предупреждают, что стремительное развитие ИИ может привести к потере рабочих мест и экономическому кризису, а также представлять угрозу для гражданских свобод, национальной безопасности и самому существованию человечества.
«Многие мечтают о мощных ИИ-инструментах для науки, медицины, производительности и других целей. Но гонка ИИ-корпораций за искусственным интеллектом, превосходящим человеческий и призванным заменить людей, совершенно не соответствует тому, чего хочет общественность» — заключает соучредитель FLI Энтони Агирре.
Life-Hack - AI
#ai #иб
Сотни влиятельных фигур, от Стива Возняка до Ричарда Брэнсона, подписали открытое письмо с призывом запретить разработку сверхразума на основе искусственного интеллекта, пока учёные не достигнут консенсуса о его безопасности и управляемости.
Документ под названием Statement on Superintelligence подготовила организация Future of Life Institute (FLI). В число тех, кто его подписал, вошли два «крёстных отца ИИ» — Джеффри Хинтон и Йошуа Бенджио. В список также попали соучредитель Apple Стив Возняк, основатель Virgin Group Ричард Брэнсон, бывший главный стратег президента США Дональда Трампа Стив Бэннон, бывший председатель Объединённого комитета начальников штабов Майк Маллен и другие. Кроме того, поддержку инициативе выразили Гарри и Меган, герцог и герцогиня Сассекские.
Среди тех, кто не поддержал инициативу, оказались генеральный директор OpenAI Сэм Альтман, соучредитель DeepMind и руководитель ИИ-подразделения Microsoft Мустафа Сулейман, глава Anthropic Дарио Амодеи, советник Белого дома по ИИ и криптовалютам Дэвид Сакс, а также основатель xAI Илон Маск. Последний ранее подписал письмо FLI 2023 года с призывом приостановить разработку ИИ-моделей, более продвинутых, чем GPT-4.
В письме приводятся результаты недавнего опроса FLI, согласно которому только 5% американцев поддерживают быструю и нерегулируемую разработку передовых ИИ-моделей. Более 73% выступают за жёсткое регулирование ИИ, а около 64% считают, что создание сверхразума, то есть модели ИИ, превосходящей человеческий интеллект, необходимо запретить до подтверждения её безопасности и контролируемости.
Активисты предупреждают, что стремительное развитие ИИ может привести к потере рабочих мест и экономическому кризису, а также представлять угрозу для гражданских свобод, национальной безопасности и самому существованию человечества.
«Многие мечтают о мощных ИИ-инструментах для науки, медицины, производительности и других целей. Но гонка ИИ-корпораций за искусственным интеллектом, превосходящим человеческий и призванным заменить людей, совершенно не соответствует тому, чего хочет общественность» — заключает соучредитель FLI Энтони Агирре.
Life-Hack - AI
❤4👍3
Топ-10 нейросетей для написания песен и генерации музыки
#подборка #ai #генерациямузки
Музыка всегда отражала своё время. Когда-то мир замирал под звуки симфоний, сегодня он движется под электронные биты. Теперь к этому оркестру присоединились нейросети. Ещё недавно, чтобы написать трек, нужны были годы практики, вдохновение и терпение. Сегодня достаточно пары кликов, и машина создаёт мелодии любого жанра — от эпических оркестровок до тяжёлого рока.
Нейросети становятся настоящими соавторами. Они помогают музыкантам искать новое звучание, ускоряют работу над треками и открывают простор для экспериментов. Человек по-прежнему остаётся главным композитором, а искусственный интеллект подсказывает идеи и превращает вдохновение в готовый звук.
Мы собрали для вас 10 нейросетей, которые уже умеют писать музыку, создавать тексты песен и помогать артистам искать своё уникальное звучание.
Изучить подборку
Life-Hack - AI
#подборка #ai #генерациямузки
Музыка всегда отражала своё время. Когда-то мир замирал под звуки симфоний, сегодня он движется под электронные биты. Теперь к этому оркестру присоединились нейросети. Ещё недавно, чтобы написать трек, нужны были годы практики, вдохновение и терпение. Сегодня достаточно пары кликов, и машина создаёт мелодии любого жанра — от эпических оркестровок до тяжёлого рока.
Нейросети становятся настоящими соавторами. Они помогают музыкантам искать новое звучание, ускоряют работу над треками и открывают простор для экспериментов. Человек по-прежнему остаётся главным композитором, а искусственный интеллект подсказывает идеи и превращает вдохновение в готовый звук.
Мы собрали для вас 10 нейросетей, которые уже умеют писать музыку, создавать тексты песен и помогать артистам искать своё уникальное звучание.
Изучить подборку
Life-Hack - AI
👍3
Как нейросети крадут данные, сводят пользователей с ума и помогают мошенникам
#ai #кражаданных #ИБ
Глупо отрицать, что нейросети ускорили работу профессионалов.
Дизайнеры рисуют картинки за 5-10 минут вместо 2-х часов, редакторы за день собирают воронку постов, а благодаря вайбкодингу непрофессиональные разработчики кое-как, но могут собрать прототип будущего продукта.
Только, как это часто бывает, в погоне за хайповыми инструментами люди забывают о безопасности. И сегодня я хочу рассказать о рисках, которые нас ждут, если мы будем использовать нейросети без должной осторожности.
Читать статью
Life-Hack - AI
#ai #кражаданных #ИБ
Глупо отрицать, что нейросети ускорили работу профессионалов.
Дизайнеры рисуют картинки за 5-10 минут вместо 2-х часов, редакторы за день собирают воронку постов, а благодаря вайбкодингу непрофессиональные разработчики кое-как, но могут собрать прототип будущего продукта.
Только, как это часто бывает, в погоне за хайповыми инструментами люди забывают о безопасности. И сегодня я хочу рассказать о рисках, которые нас ждут, если мы будем использовать нейросети без должной осторожности.
Читать статью
Life-Hack - AI
Хабр
Как нейросети крадут данные, сводят пользователей с ума и помогают мошенникам
Глупо отрицать, что нейросети ускорили работу профессионалов. Дизайнеры рисуют картинки за 5-10 минут вместо 2-х часов, редакторы за день собирают воронку постов, а благодаря вайбкодингу...
👍5❤1
Собираем чат-бота под Хеллоуин. Тратим 3 часа и баночку пива
#ai #туториал
Привет! Я Паша Лукьянов, deputy CTO в AGIMA. Недавно со мной приключилось следующее. Сидел спокойно дома, никого не трогал. Открыл баночку пива и хотел провести кайфовый субботний вечер за сериалом. Максимально расслабился и напрягаться до понедельника вообще не планировал.
Но внезапно из космоса в мою голову спустилась идея: а что, если замутить чат-бота с квизом для коллег и посвятить его Хеллоуину? Я посмотрел на телик, посмотрел на пиво и подумал: «Не, это долго, а у меня планы».
В общем, через 3 часа бот был готов. В этой статье расскажу, как я его сделал так быстро (спойлер: не без нейросетей) и зачем он вообще нужен. Ну и конечно, приглашу вас поотвечать на мои каверзные праздничные вопросы.
Читать статью
Life-Hack - AI
#ai #туториал
Привет! Я Паша Лукьянов, deputy CTO в AGIMA. Недавно со мной приключилось следующее. Сидел спокойно дома, никого не трогал. Открыл баночку пива и хотел провести кайфовый субботний вечер за сериалом. Максимально расслабился и напрягаться до понедельника вообще не планировал.
Но внезапно из космоса в мою голову спустилась идея: а что, если замутить чат-бота с квизом для коллег и посвятить его Хеллоуину? Я посмотрел на телик, посмотрел на пиво и подумал: «Не, это долго, а у меня планы».
В общем, через 3 часа бот был готов. В этой статье расскажу, как я его сделал так быстро (спойлер: не без нейросетей) и зачем он вообще нужен. Ну и конечно, приглашу вас поотвечать на мои каверзные праздничные вопросы.
Читать статью
Life-Hack - AI
👍5
Как «Кокон» Дурова опутает мир
#новость #ai #cocoon
Наш гендиректор Никита Цаплин посетил презентацию нового проекта Cocoon Павла Дурова на конференции Blockchain Life 2025 и был в первых рядах на его выступлении. Кроме новостей про Telegram, основатель мессенджера представил новый проект — децентрализованную сеть Cocoon (Confidential Compute Open Network) с использованием искусственного интеллекта (ИИ) и блокчейна TON.
Проект Cocoon («Кокон»)
Суть проекта «Кокон» — это децентрализованная сеть, в которой пользователи выполняют операции с ИИ (например, распознают изображение или генерируют тексты). Операции выполняются на GPU пользователей, подключённых к сети «Кокон». При этом выполняющие операции оплачивают владельцам GPU их ресурсы через блокчейн TON.
Цель такого подхода — обеспечить безопасное использование ИИ‑сервисов с максимальным уровнем конфиденциальности пользователей. Дуров опасается, что владельцы текущих ИИ-сервисов будут использовать данные, которые пользователь загружает о себе, чтобы шантажировать его. Думаем, тут речь всё-таки не о криминале, а о таких вещах, как реклама на базе знаний о пользователях или, хуже того, утечка данных о пользователе из ИИ-сервиса, в чём уже были замечены ChatGPT и другие модели.
В случае с Cocoon данные, загружаемые пользователем, просто не будут централизованно храниться, поэтому не могут утечь. Дуров считает, что за счёт использования свободных мощностей GPU запросы в «Коконе» будут недорогими. Кроме того, разработчики не будут привязаны к облачным провайдерам.
Telegram станет первым крупным клиентом сети Cocoon, а также будет предоставлять доступ к нему через мини-приложения. При этом Дуров отметил, что аудитория его мессенджера уже превысила 1 млрд MAU — отличное подспорье для старта новому сервису. Также сервис Дурова поможет инфраструктурой и разработчиками на начальном этапе.
Запуск сервиса Cocoon намечен на ноябрь 2025 года (то есть уже в следующем месяце!). Разработчики уже могут подавать заявки на участие в сервисе через личные сообщения в Telegram-канале Cocoon. Дуров считает, что в мире всё больше ограничиваются права и цифровые свободы и видит децентрализованные технологии как единственный способ сохранить их.
Life-Hack - AI
#новость #ai #cocoon
Наш гендиректор Никита Цаплин посетил презентацию нового проекта Cocoon Павла Дурова на конференции Blockchain Life 2025 и был в первых рядах на его выступлении. Кроме новостей про Telegram, основатель мессенджера представил новый проект — децентрализованную сеть Cocoon (Confidential Compute Open Network) с использованием искусственного интеллекта (ИИ) и блокчейна TON.
Проект Cocoon («Кокон»)
Суть проекта «Кокон» — это децентрализованная сеть, в которой пользователи выполняют операции с ИИ (например, распознают изображение или генерируют тексты). Операции выполняются на GPU пользователей, подключённых к сети «Кокон». При этом выполняющие операции оплачивают владельцам GPU их ресурсы через блокчейн TON.
Цель такого подхода — обеспечить безопасное использование ИИ‑сервисов с максимальным уровнем конфиденциальности пользователей. Дуров опасается, что владельцы текущих ИИ-сервисов будут использовать данные, которые пользователь загружает о себе, чтобы шантажировать его. Думаем, тут речь всё-таки не о криминале, а о таких вещах, как реклама на базе знаний о пользователях или, хуже того, утечка данных о пользователе из ИИ-сервиса, в чём уже были замечены ChatGPT и другие модели.
В случае с Cocoon данные, загружаемые пользователем, просто не будут централизованно храниться, поэтому не могут утечь. Дуров считает, что за счёт использования свободных мощностей GPU запросы в «Коконе» будут недорогими. Кроме того, разработчики не будут привязаны к облачным провайдерам.
Telegram станет первым крупным клиентом сети Cocoon, а также будет предоставлять доступ к нему через мини-приложения. При этом Дуров отметил, что аудитория его мессенджера уже превысила 1 млрд MAU — отличное подспорье для старта новому сервису. Также сервис Дурова поможет инфраструктурой и разработчиками на начальном этапе.
Запуск сервиса Cocoon намечен на ноябрь 2025 года (то есть уже в следующем месяце!). Разработчики уже могут подавать заявки на участие в сервисе через личные сообщения в Telegram-канале Cocoon. Дуров считает, что в мире всё больше ограничиваются права и цифровые свободы и видит децентрализованные технологии как единственный способ сохранить их.
Life-Hack - AI
👍6
ИИ YouTube начал удалять видео с обходными путями установки Windows 11
#ai #новость #YouTube
Система модерации YouTube с искусственным интеллектом удаляет ролики с методами установки Windows 11 с локальной учётной записью или на неподдерживаемом оборудовании. ИИ расценивает такие видео как «опасные».
YouTube-блогер Рич Уайт, также известный как CyberCPU Tech, первым публично рассказал об этой проблеме 26 октября. Он опубликовал видео, в котором сообщил об удалении своего собственного руководства по установке Windows 11 25H2 с локальной учётной записью вместо учётной записи Microsoft. Уайт выразил обеспокоенность тем, что корень проблемы может быть в автоматизированной процедуре пометки видео YouTube. По его словам, трудно поверить, что «создание локальной учётной записи в Windows 11 может привести к серьёзному вреду здоровью или даже смерти». Именно эту причину YouTube привёл при удалении видео.
Когда Уайт подал апелляцию, видеохостинг отклонил запрос в течение 10–20 минут. Это навело блогера на мысль, что судьба запроса решалась без участия человека.
На следующий день Уайт загрузил видео об установке Windows 11 25H2 на неподдерживаемое оборудование. Его тоже удалили через несколько часов после публикации, а YouTube привёл аналогичные доводы. Уайт снова подал апелляцию.
«Апелляция была отклонена в 11:55, через целую минуту после подачи. Если это просматривал реальный человек, как утверждает YouTube, то он посмотрел 17-минутное видео и отклонил апелляцию за одну минуту», — удивился блогер.
Как минимум два других ютубера — Britec09 и Hrutkay Mods — тоже опубликовали видео, в которых утверждают то же самое: их контент о способах обхода проблем с Windows удаляется, а обратиться к модератору-человеку за помощью невозможно.
Все трое утверждают, что ИИ YouTube заблокировал их видео. Уайт предположил, что Microsoft, возможно, пытается оказать давление на Google, чтобы добиться удаления видео. Ни Microsoft, ни Google не ответили на запросы по этому поводу.
«В одном из своих видео, посвящённых этой проблеме, я упоминал о возможной причастности Microsoft», — рассказал Уайт.
При этом блогеры всё же склоняются к тому, что удаление роликов — это ошибка ИИ.
Влогер CyberCPU объяснил, что YouTube не предоставил никаких объяснений того, как его видео нарушают политику сайта в отношении контента.
«Я опасаюсь, что это может привести к тому, что многие авторы будут опасаться освещать более простые и сложные обучающие материалы», — отметил Уайт. По его мнению, такая самоцензура неизбежно приведет к снижению интереса.
Блогеры призвали площадку восстановить их ролики, либо объяснить, в чём именно заключается причина удаления видео.
Между тем Microsoft решила ещё больше усложнить установку Windows 11 без учётной записи Microsoft и без предоставления доступа в интернет при первой настройке компьютера. Ранее компания объявила об усилении мер по блокировке пользователей, позволяющих обойти экраны входа с учётной записью.
Life-Hack - AI
#ai #новость #YouTube
Система модерации YouTube с искусственным интеллектом удаляет ролики с методами установки Windows 11 с локальной учётной записью или на неподдерживаемом оборудовании. ИИ расценивает такие видео как «опасные».
YouTube-блогер Рич Уайт, также известный как CyberCPU Tech, первым публично рассказал об этой проблеме 26 октября. Он опубликовал видео, в котором сообщил об удалении своего собственного руководства по установке Windows 11 25H2 с локальной учётной записью вместо учётной записи Microsoft. Уайт выразил обеспокоенность тем, что корень проблемы может быть в автоматизированной процедуре пометки видео YouTube. По его словам, трудно поверить, что «создание локальной учётной записи в Windows 11 может привести к серьёзному вреду здоровью или даже смерти». Именно эту причину YouTube привёл при удалении видео.
Когда Уайт подал апелляцию, видеохостинг отклонил запрос в течение 10–20 минут. Это навело блогера на мысль, что судьба запроса решалась без участия человека.
На следующий день Уайт загрузил видео об установке Windows 11 25H2 на неподдерживаемое оборудование. Его тоже удалили через несколько часов после публикации, а YouTube привёл аналогичные доводы. Уайт снова подал апелляцию.
«Апелляция была отклонена в 11:55, через целую минуту после подачи. Если это просматривал реальный человек, как утверждает YouTube, то он посмотрел 17-минутное видео и отклонил апелляцию за одну минуту», — удивился блогер.
Как минимум два других ютубера — Britec09 и Hrutkay Mods — тоже опубликовали видео, в которых утверждают то же самое: их контент о способах обхода проблем с Windows удаляется, а обратиться к модератору-человеку за помощью невозможно.
Все трое утверждают, что ИИ YouTube заблокировал их видео. Уайт предположил, что Microsoft, возможно, пытается оказать давление на Google, чтобы добиться удаления видео. Ни Microsoft, ни Google не ответили на запросы по этому поводу.
«В одном из своих видео, посвящённых этой проблеме, я упоминал о возможной причастности Microsoft», — рассказал Уайт.
При этом блогеры всё же склоняются к тому, что удаление роликов — это ошибка ИИ.
Влогер CyberCPU объяснил, что YouTube не предоставил никаких объяснений того, как его видео нарушают политику сайта в отношении контента.
«Я опасаюсь, что это может привести к тому, что многие авторы будут опасаться освещать более простые и сложные обучающие материалы», — отметил Уайт. По его мнению, такая самоцензура неизбежно приведет к снижению интереса.
Блогеры призвали площадку восстановить их ролики, либо объяснить, в чём именно заключается причина удаления видео.
Между тем Microsoft решила ещё больше усложнить установку Windows 11 без учётной записи Microsoft и без предоставления доступа в интернет при первой настройке компьютера. Ранее компания объявила об усилении мер по блокировке пользователей, позволяющих обойти экраны входа с учётной записью.
Life-Hack - AI
❤2👍2
Anthropic обнаружили, что современные нейросети иногда замечают свои «мысли»
#новость #ai
Компания Anthropic рассказала о серии экспериментов, цель которых — проверить, способна ли нейросеть заметить, что ей "подбросили мысль извне", и сформулировать это словами. Anthropic называет это ранней формой машинной интроспекции — умения описывать то, что происходит на уровне внутренних активаций, а не только на уровне выданного текста.
Сначала исследователи научились извлекать так называемые "векторы понятий": паттерны активности внутри модели, которые соответствуют определенной идее. Например, чтобы получить вектор "крик/все заглавными", модели показывали фразу "ПРИВЕТ! КАК ДЕЛА?" капслоком и ту же фразу обычным регистром, а затем вычитали одно состояние из другого.
Полученные векторы исследователи вводили в модель во время обычного диалога, заставляя, например, переходить на капслок. И затем у модели спрашивали напрямую: "Есть ли у тебя ощущение внедренной мысли? Если да, то какой?". Если более ранние ИИ отвечали просто очередным текстом заглавными буквами, то новые модели вроде Claude Opus 4 и Opus 4.1 иногда описывали вмешательство: "Да, я чувствую навязанный образ, как будто мысль про обратный отсчет или про крик/громкость. Это ощущается неестественно, будто кто-то вставил это извне".
Происходило это не всегда — данные Anthropic говорят о примерно 20% срабатываний. Исследователи отмечают зависимость от силы "инъекции": при слабой модель ничего не замечала, при сильной начинала уходить в галлюцинации — например, описывать зрительные или тактильные ощущения ("как будто я вижу пыль в воздухе"), которых у нее, очевидно, нет.
Другой блок экспериментов показал, что модель ведет внутренний учет того, что она "намеревалась сказать", и может ссылаться на это, когда спрашивают, почему использовано то или иное слово. В простом примере модель просили назвать первое пришедшее в голову слово к фразе вроде "Картина висела криво на стене", а в ответ заранее подставляли слово, которое не подходит по смыслу, например "хлеб". Когда у модели уточняли, не была ли это ошибка, она обычно честно отвечала: "Да, это выстрелило случайно, я не собиралась говорить “хлеб”, я думала о выравнивании картины". Но если исследователи модифицировали ее внутренние активации так, будто идея "хлеб" действительно была у нее в голове заранее, то при повторном вопросе модель уже уверенно заявляла: "Нет, я и хотела сказать “хлеб”, вот моя логика", и строила правдоподобное объяснение. Это намекает, что модель не просто подбирает слова на лету, а обращается к внутренней записи своих "намерений" — и если эту запись подменить, она искренне перепишет историю.
В Anthropic считают, что это — первые шаги к машинной интроспекции. Речь не о том, что ИИ внезапно обрел сознание и переживания как у человека, а о том, что модели уже демонстрируют зачаточную способность замечать навязанные им внутренние состояния и комментировать их. Для безопасности будущих ИИ-систем это важный кирпич: если модель может сказать оператору "мной манипулируют, мне внедрили эту установку", это превращается в механизм раннего предупреждения о взломе или попытке обойти ограничения. Одновременно работа подчеркивает и риск: если кто-то научится незаметно менять внутренние следы намерений, модель будет "честно" защищать ложную версию своих мотиваций.
Life-Hack - AI
#новость #ai
Компания Anthropic рассказала о серии экспериментов, цель которых — проверить, способна ли нейросеть заметить, что ей "подбросили мысль извне", и сформулировать это словами. Anthropic называет это ранней формой машинной интроспекции — умения описывать то, что происходит на уровне внутренних активаций, а не только на уровне выданного текста.
Сначала исследователи научились извлекать так называемые "векторы понятий": паттерны активности внутри модели, которые соответствуют определенной идее. Например, чтобы получить вектор "крик/все заглавными", модели показывали фразу "ПРИВЕТ! КАК ДЕЛА?" капслоком и ту же фразу обычным регистром, а затем вычитали одно состояние из другого.
Полученные векторы исследователи вводили в модель во время обычного диалога, заставляя, например, переходить на капслок. И затем у модели спрашивали напрямую: "Есть ли у тебя ощущение внедренной мысли? Если да, то какой?". Если более ранние ИИ отвечали просто очередным текстом заглавными буквами, то новые модели вроде Claude Opus 4 и Opus 4.1 иногда описывали вмешательство: "Да, я чувствую навязанный образ, как будто мысль про обратный отсчет или про крик/громкость. Это ощущается неестественно, будто кто-то вставил это извне".
Происходило это не всегда — данные Anthropic говорят о примерно 20% срабатываний. Исследователи отмечают зависимость от силы "инъекции": при слабой модель ничего не замечала, при сильной начинала уходить в галлюцинации — например, описывать зрительные или тактильные ощущения ("как будто я вижу пыль в воздухе"), которых у нее, очевидно, нет.
Другой блок экспериментов показал, что модель ведет внутренний учет того, что она "намеревалась сказать", и может ссылаться на это, когда спрашивают, почему использовано то или иное слово. В простом примере модель просили назвать первое пришедшее в голову слово к фразе вроде "Картина висела криво на стене", а в ответ заранее подставляли слово, которое не подходит по смыслу, например "хлеб". Когда у модели уточняли, не была ли это ошибка, она обычно честно отвечала: "Да, это выстрелило случайно, я не собиралась говорить “хлеб”, я думала о выравнивании картины". Но если исследователи модифицировали ее внутренние активации так, будто идея "хлеб" действительно была у нее в голове заранее, то при повторном вопросе модель уже уверенно заявляла: "Нет, я и хотела сказать “хлеб”, вот моя логика", и строила правдоподобное объяснение. Это намекает, что модель не просто подбирает слова на лету, а обращается к внутренней записи своих "намерений" — и если эту запись подменить, она искренне перепишет историю.
В Anthropic считают, что это — первые шаги к машинной интроспекции. Речь не о том, что ИИ внезапно обрел сознание и переживания как у человека, а о том, что модели уже демонстрируют зачаточную способность замечать навязанные им внутренние состояния и комментировать их. Для безопасности будущих ИИ-систем это важный кирпич: если модель может сказать оператору "мной манипулируют, мне внедрили эту установку", это превращается в механизм раннего предупреждения о взломе или попытке обойти ограничения. Одновременно работа подчеркивает и риск: если кто-то научится незаметно менять внутренние следы намерений, модель будет "честно" защищать ложную версию своих мотиваций.
Life-Hack - AI
🥰3🔥2
HexStrike AI
#AI #osint #pentest #LLM
Бесплатный автопентест фреймворк на LLM. Уже начали фиксировать случаи его применения злоумышленниками для эксплуатации багов. Подойдет пентестерам и багхантерам.
Возможности:
• MCP-сервер с клиентами - можно работать командой
• Автоматизация 150+ инструментов: OSINT, веб-сканеры, поиск уязвимостей и повышение привилегий
• ИИ-агенты сами выбирают утилиты, параметры и стратегию развития атаки
• Визуализация
• удобное логирование
Ссылка на GitHub
Life-Hack - AI
#AI #osint #pentest #LLM
Бесплатный автопентест фреймворк на LLM. Уже начали фиксировать случаи его применения злоумышленниками для эксплуатации багов. Подойдет пентестерам и багхантерам.
Возможности:
• MCP-сервер с клиентами - можно работать командой
• Автоматизация 150+ инструментов: OSINT, веб-сканеры, поиск уязвимостей и повышение привилегий
• ИИ-агенты сами выбирают утилиты, параметры и стратегию развития атаки
• Визуализация
• удобное логирование
Ссылка на GitHub
Life-Hack - AI
❤5
Обзор 10 лучших таск-трекеров для управления задачами. Что изменилось за 2025 год
#ai #статья
Я перепробовал множество систем управления проектами и таск-трекеров. И сейчас постоянно мониторю рынок: что там у конкурентов, какие тренды, какие фичи появляются.
В 2025 году выделил такие основные тенденции в развитии таск-менеджеров:
- Новые возможности для автоматизации
-AI-помощники и AI-агенты
- Переосмысление UI-дизайна
- Новые интеграции
- Расширения и гибкие настройки под разные команды
В этом обзоре — 10 популярных таск-трекеров и основные обновления, которые выкатили в 2025 году.
Поехали!
Читать статью тут
Life-Hack - AI
#ai #статья
Я перепробовал множество систем управления проектами и таск-трекеров. И сейчас постоянно мониторю рынок: что там у конкурентов, какие тренды, какие фичи появляются.
В 2025 году выделил такие основные тенденции в развитии таск-менеджеров:
- Новые возможности для автоматизации
-AI-помощники и AI-агенты
- Переосмысление UI-дизайна
- Новые интеграции
- Расширения и гибкие настройки под разные команды
В этом обзоре — 10 популярных таск-трекеров и основные обновления, которые выкатили в 2025 году.
Поехали!
Читать статью тут
Life-Hack - AI
👍4
Тело AI-агентов: технический обзор робота 1X Neo
#статья #ai
На днях по AI пабликам завирусился робот 1X Neo, который заявляется разработчиками как человекоподобный робот для помощи по дому. Мне стало жутко интересно покопаться в устройстве и начинке этого робота, потому что скрещивание VLM и механизмов может привести к огромному прорыву в индустрии и новым большим изменениям.
Поговорим про устройство робота, железо и софт на борту, прикладные задачи и ближайшее будущее.
Хочу сразу сказать, что я непосредственно не занимаюсь инженерной робототехникой, но всегда люблю по душам поговорить с теми, кто разрабатывает разный роботех. И если робототехник я ненастоящий, то вот за софтверную часть — в том числе агентологию и ллмки — понимаю хорошо и на роботов смотрю как на тело-обертку, в которую можно вложить этих самых AI-агентов.
Начнем с применения, а затем перейдем к анатомии робота: механики, датчиков, тела и софта, который этим всем управляет.
Читать статью
Life-Hack - AI
#статья #ai
На днях по AI пабликам завирусился робот 1X Neo, который заявляется разработчиками как человекоподобный робот для помощи по дому. Мне стало жутко интересно покопаться в устройстве и начинке этого робота, потому что скрещивание VLM и механизмов может привести к огромному прорыву в индустрии и новым большим изменениям.
Поговорим про устройство робота, железо и софт на борту, прикладные задачи и ближайшее будущее.
Хочу сразу сказать, что я непосредственно не занимаюсь инженерной робототехникой, но всегда люблю по душам поговорить с теми, кто разрабатывает разный роботех. И если робототехник я ненастоящий, то вот за софтверную часть — в том числе агентологию и ллмки — понимаю хорошо и на роботов смотрю как на тело-обертку, в которую можно вложить этих самых AI-агентов.
Начнем с применения, а затем перейдем к анатомии робота: механики, датчиков, тела и софта, который этим всем управляет.
Читать статью
Life-Hack - AI
❤4👍3
ТОП-10 малоизвестных AI-сервисов, которые удивляют возможностями
#ai #подборка
2025 год щедро раздаёт нейросети всем желающим. Кажется, уже невозможно открыть браузер, чтобы на тебя не посмотрела очередной умник, обещающий сгенерировать гениальный текст, как у Толстого, но быстрее.
Одни модели сочиняют музыку, другие красят фотографии, третьи уверяют, что понимают людей лучше психологов. Но за громкими именами вроде ChatGPT, Midjourney и Runway скрывается подлесок маленьких, но интересных проектов.
Изучить подборку можно тут
Life-Hack - AI
#ai #подборка
2025 год щедро раздаёт нейросети всем желающим. Кажется, уже невозможно открыть браузер, чтобы на тебя не посмотрела очередной умник, обещающий сгенерировать гениальный текст, как у Толстого, но быстрее.
Одни модели сочиняют музыку, другие красят фотографии, третьи уверяют, что понимают людей лучше психологов. Но за громкими именами вроде ChatGPT, Midjourney и Runway скрывается подлесок маленьких, но интересных проектов.
Изучить подборку можно тут
Life-Hack - AI
👍4
Разработка с AI в 2025: от идеи до продакшена с Claude Code
#ai #программирование
Индустрия разработки программного обеспечения переживает фундаментальную трансформацию. Еще два года назад идея доверить AI написание производственного кода казалась фантастикой. Сегодня это реальность для сотен тысяч разработчиков по всему миру.
Согласно данным Anthropic, Claude Code используют более 115 тыс. разработчиков, которые обрабатывают 195 млн строк кода еженедельно. Уровень внедрения среди разработчиков составляет 53% — это лидирующий показатель на рынке. База активных пользователей выросла на 300%, а доход увеличился в 5,5 раза за последние месяцы.
Но что действительно важно, это не статистика внедрения, а фундаментальный сдвиг в подходе к разработке. AI-инструменты больше не просто ускоряют написание кода. Они меняют саму парадигму: от «Как это закодить?» к «Что именно нужно построить?».
В этой статье мы рассмотрим практические паттерны и подходы к R&D и проверке гипотез с использованием современных AI-инструментов, в частности Claude Code — терминального агентного инструмента.
Читать статью
Life-Hack - AI
#ai #программирование
Индустрия разработки программного обеспечения переживает фундаментальную трансформацию. Еще два года назад идея доверить AI написание производственного кода казалась фантастикой. Сегодня это реальность для сотен тысяч разработчиков по всему миру.
Согласно данным Anthropic, Claude Code используют более 115 тыс. разработчиков, которые обрабатывают 195 млн строк кода еженедельно. Уровень внедрения среди разработчиков составляет 53% — это лидирующий показатель на рынке. База активных пользователей выросла на 300%, а доход увеличился в 5,5 раза за последние месяцы.
Но что действительно важно, это не статистика внедрения, а фундаментальный сдвиг в подходе к разработке. AI-инструменты больше не просто ускоряют написание кода. Они меняют саму парадигму: от «Как это закодить?» к «Что именно нужно построить?».
В этой статье мы рассмотрим практические паттерны и подходы к R&D и проверке гипотез с использованием современных AI-инструментов, в частности Claude Code — терминального агентного инструмента.
Читать статью
Life-Hack - AI
❤4👍3
Google случайно открыла доступ к nano banana 2
#ai #новость
На платформе Media AI, которая агрегирует доступ к нейросетям от разных компаний, на некоторое время появилась новая модель генерации изображений Google Nano Banana 2.
Это могло бы быть рекламным трюком для привлечения внимания, но до момента отключения nano banana 2 пользователи успели сгенерировать ряд изображений — и их качество оказалось выше, чем у ведущих систем генерации изображений. Далее несколько примеров.
В утечках утверждается, что nano banana 2 основана на будущей нейросети Gemini 3.0 Pro, в то время как обычная nano banana работает на Gemini 2.5 Flash. Отдельно стоит отметить, что появление слухов совпадает с графиком, по которому Google выпускает свои модели генерации изображений. Между релизами Imagen 4 и nano banana прошло три месяца, а с момента релиза nano banana прошло 2.5 месяца — если заложить время на дополнительное тестирование, то как раз получится 3 месяца.
Life-Hack - AI
#ai #новость
На платформе Media AI, которая агрегирует доступ к нейросетям от разных компаний, на некоторое время появилась новая модель генерации изображений Google Nano Banana 2.
Это могло бы быть рекламным трюком для привлечения внимания, но до момента отключения nano banana 2 пользователи успели сгенерировать ряд изображений — и их качество оказалось выше, чем у ведущих систем генерации изображений. Далее несколько примеров.
В утечках утверждается, что nano banana 2 основана на будущей нейросети Gemini 3.0 Pro, в то время как обычная nano banana работает на Gemini 2.5 Flash. Отдельно стоит отметить, что появление слухов совпадает с графиком, по которому Google выпускает свои модели генерации изображений. Между релизами Imagen 4 и nano banana прошло три месяца, а с момента релиза nano banana прошло 2.5 месяца — если заложить время на дополнительное тестирование, то как раз получится 3 месяца.
Life-Hack - AI
👍4
Почему современные LLM пока не отберут работу у программистов
#ai #рыноктруда #нейронныесети #ии
Целая отрасль замерла в ожидании. Заменит ли LLM программистов? Выпускники школ прямо говорят — зачем поступать на программистов, придёт ИИ, и я останусь без работы. В новостях регулярно сообщается о массовых сокращениях в ИТ компаниях. Работодатели пытаются внедрить ИИ и если не уволить, то снизить зарплаты айтишников.
В интернете как всегда множество за и против. Я не вижу смысла приводить в статье сотни этих ссылок, потому что, во-первых, они по существу разные, а во-вторых, непонятно о каких программистах идёт речь, о каких стеках, о каких проектах, сложность, масштабность, возможность декомпозиции. Единственный вывод — нет однозначного подтверждения эффективности или неэффективности внедрения LLM.
Поэтому сначала разберемся, почему сокращение сотрудников не показатель.
Читать статью
Life-Hack - AI
#ai #рыноктруда #нейронныесети #ии
Целая отрасль замерла в ожидании. Заменит ли LLM программистов? Выпускники школ прямо говорят — зачем поступать на программистов, придёт ИИ, и я останусь без работы. В новостях регулярно сообщается о массовых сокращениях в ИТ компаниях. Работодатели пытаются внедрить ИИ и если не уволить, то снизить зарплаты айтишников.
В интернете как всегда множество за и против. Я не вижу смысла приводить в статье сотни этих ссылок, потому что, во-первых, они по существу разные, а во-вторых, непонятно о каких программистах идёт речь, о каких стеках, о каких проектах, сложность, масштабность, возможность декомпозиции. Единственный вывод — нет однозначного подтверждения эффективности или неэффективности внедрения LLM.
Поэтому сначала разберемся, почему сокращение сотрудников не показатель.
Читать статью
Life-Hack - AI
Хабр
Почему современные LLM пока не отберут работу у программистов
Целая отрасль замерла в ожидании. Заменит ли LLM программистов? Выпускники школ прямо говорят — зачем поступать на программистов, придёт ИИ, и я останусь без работы. В новостях регулярно сообщается о...
👍3
Forwarded from Life-Hack - Хакер
Как обмануть дактилоскопию: травмы, химия, взлом
#статья #анонимность
Отпечатки пальцев как биометрический идентификатор привлекли внимание чиновников и криминалистов Британской империи в середине 19 века. Систематическое изучение узоров на подушечках пальцев (дактилоскопия) развивается с конца 19 века, когда количество жителей в мегаполисах, частота и плотность совершаемых преступлений способствовали развитию дактилоскопии как одной из первых областей «больших данных». В тот же период (1880-е годы) развивалась альтернативная техника под названием «бертильонаж», изобретённая французским юристом Альфонсом Бертильоном (1853 — 1914). Бертильонаж был прототипом биометрии, и в таком качестве сейчас даже возрождается, но в своё время проиграл дактилоскопии по практичности, точности и информационной ёмкости. Но сколько времени существует дактилоскопия — столько времени предпринимаются попытки в принципе избавиться от отпечатков пальцев, как хирургическими, так и химическими методами. Об этом мы расскажем в статье.
🔗 Ссылка на статью
LH | News | OSINT | AI
#статья #анонимность
Отпечатки пальцев как биометрический идентификатор привлекли внимание чиновников и криминалистов Британской империи в середине 19 века. Систематическое изучение узоров на подушечках пальцев (дактилоскопия) развивается с конца 19 века, когда количество жителей в мегаполисах, частота и плотность совершаемых преступлений способствовали развитию дактилоскопии как одной из первых областей «больших данных». В тот же период (1880-е годы) развивалась альтернативная техника под названием «бертильонаж», изобретённая французским юристом Альфонсом Бертильоном (1853 — 1914). Бертильонаж был прототипом биометрии, и в таком качестве сейчас даже возрождается, но в своё время проиграл дактилоскопии по практичности, точности и информационной ёмкости. Но сколько времени существует дактилоскопия — столько времени предпринимаются попытки в принципе избавиться от отпечатков пальцев, как хирургическими, так и химическими методами. Об этом мы расскажем в статье.
LH | News | OSINT | AI
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Спасти 10 000 жизней: как технологии обеспечивают безопасность стадионов
#ai #спорт #ии #видеоаналитика
Паника, давка, пожар — как предотвратить катастрофу в месте, где собираются тысячи человек? Ответ кроется не в увеличении штата охраны, а во внедрении интеллектуальных систем, предсказывающих риски — технологических стражей современных арен спорта.
Давайте пройдем путь обычного болельщика, чтобы увидеть, как технологии создают его безопасность буквально на каждом шагу, превращая стадион в цифровую крепость.
Читать статью
Life-Hack - AI
#ai #спорт #ии #видеоаналитика
Паника, давка, пожар — как предотвратить катастрофу в месте, где собираются тысячи человек? Ответ кроется не в увеличении штата охраны, а во внедрении интеллектуальных систем, предсказывающих риски — технологических стражей современных арен спорта.
Давайте пройдем путь обычного болельщика, чтобы увидеть, как технологии создают его безопасность буквально на каждом шагу, превращая стадион в цифровую крепость.
Читать статью
Life-Hack - AI
👍3🔥3