Please open Telegram to view this post
VIEW IN TELEGRAM
😨46🤪12👍9😁6❤5
Тем временем Mistral активно ищет инвестиции
В декабре стартап уже привлек $415 млн. Тогда они оценивались в $2 млрд. Сейчас оценка компании – $5 млрд. К тому же, недавно Mistral стал получать доход.
Короче, несложная математика и здравый смысл подсказывает, что компания может привлечь сотни миллионов долларов. Среди инвесторов: Andreessen Horowitz, Microsoft (OpenAI ревнует, да) и др.
В декабре стартап уже привлек $415 млн. Тогда они оценивались в $2 млрд. Сейчас оценка компании – $5 млрд. К тому же, недавно Mistral стал получать доход.
Короче, несложная математика и здравый смысл подсказывает, что компания может привлечь сотни миллионов долларов. Среди инвесторов: Andreessen Horowitz, Microsoft (OpenAI ревнует, да) и др.
👍29🔥11❤7👏1😁1
На днях вышла новая книга по Computer Vision от трех крутых авторов: Antonio Torralba, Bill Freeman и Phillip Isola
Авторы работали над книгой почти 10 лет. В ней собрано вообще все, от линейных фильтров и оптики до современных диффузионнок. Скорее всего, чтиво скоро будет признано сообществом как мастрид.
Самая приятная вещь в книге - авторские иллюстрации. Ну и вообще, на выходные самое то.
Авторы работали над книгой почти 10 лет. В ней собрано вообще все, от линейных фильтров и оптики до современных диффузионнок. Скорее всего, чтиво скоро будет признано сообществом как мастрид.
Самая приятная вещь в книге - авторские иллюстрации. Ну и вообще, на выходные самое то.
👍66🤯13❤8🔥7
Визуализация эмбеддингов от TensorFlow
Пространство эмбеддингов с огромной размерностью представить себе очень сложно. Поэтому иногда, чтобы лучше понять задачу и/или наглядно оценить качество векторов, полезно посмотреть на эмбеддинги меньшей размерности. Крутейший залипательный инструмент для этого – Embedding Projector.
Что делаем: загружаем свои эмбеддинги/выбираем предобученные -> выбираем алгоритм сокращения размерности -> любуемся. На картинке сверху, например, можно увидеть кластер чисел снизу слева. Это означает, что эмбеддинги неплохо отражают семантическую близость слов.
Красивое...
Пространство эмбеддингов с огромной размерностью представить себе очень сложно. Поэтому иногда, чтобы лучше понять задачу и/или наглядно оценить качество векторов, полезно посмотреть на эмбеддинги меньшей размерности. Крутейший залипательный инструмент для этого – Embedding Projector.
Что делаем: загружаем свои эмбеддинги/выбираем предобученные -> выбираем алгоритм сокращения размерности -> любуемся. На картинке сверху, например, можно увидеть кластер чисел снизу слева. Это означает, что эмбеддинги неплохо отражают семантическую близость слов.
Красивое...
❤46👍19🔥8
В Х парень поделился историей о том, как Claude-3 его загипнотизировал.
Эксперимент проводился ради шутки, но, неожиданно, автор якобы действительно захотел спать и отключился на час. В реплаях люди массово пишут, что больше ни за что не будут пользоваться LLM.
Получается, будильники в понедельник в 7 утра тоже нас гипнотизируют?
Эксперимент проводился ради шутки, но, неожиданно, автор якобы действительно захотел спать и отключился на час. В реплаях люди массово пишут, что больше ни за что не будут пользоваться LLM.
Получается, будильники в понедельник в 7 утра тоже нас гипнотизируют?
🤯35😁20❤6👍4🗿1
Если сегодня Claude-3 может кого-то загипнотизировать, то через несколько лет ИИ станет в разы умнее гениев человечества?
В последнее время в сети часто мелькает график с картинки. Мнение сообщества снова разделилось.
Одни говорят: «как мы можем выйти за пределы человеческого разума, если тренируем модели только на данных от зеленой до оранжевой линии? Это невозможно».
Другие же отмечают, что LLM уже несколько раз показывали свою способность находить в обучающих данных паттерны, которых человек не видит, и делать на их основе продвинутые выводы. Эта способность и даст ИИ взлететь по экспоненте.
Что думаете?
❤️ - будет так, как на графике
🗿 - да не, не будет
В последнее время в сети часто мелькает график с картинки. Мнение сообщества снова разделилось.
Одни говорят: «как мы можем выйти за пределы человеческого разума, если тренируем модели только на данных от зеленой до оранжевой линии? Это невозможно».
Другие же отмечают, что LLM уже несколько раз показывали свою способность находить в обучающих данных паттерны, которых человек не видит, и делать на их основе продвинутые выводы. Эта способность и даст ИИ взлететь по экспоненте.
Что думаете?
❤️ - будет так, как на графике
🗿 - да не, не будет
🗿156❤119🤔24🌚3👍1🔥1
Обычный человек vs Data Scientist
Профдеформация вещь опасная, поэтому мы решили напомнить вам оригинальные значения DS-терминов.
Не забудь отправить друзьям, чтобы лучше тебя понимали.
Профдеформация вещь опасная, поэтому мы решили напомнить вам оригинальные значения DS-терминов.
Не забудь отправить друзьям, чтобы лучше тебя понимали.
👍65😁38🔥15❤5💅4🤗1
Оценка стоимости обучения известных моделей из отчета Stanford 2024 AI Index Report
Зацените разрыв: обучить оriginal transformer в 2017 стоило $930, а потом началось…
GPT-3 - $4.3M
GPT-4 - $78.4M
Gemini Ultra - $191.4M
Кстати, новой Llama-3 здесь нет, ее обучение стоило Meta $100M. Да, больше чем GPT-4.
Зацените разрыв: обучить оriginal transformer в 2017 стоило $930, а потом началось…
GPT-3 - $4.3M
GPT-4 - $78.4M
Gemini Ultra - $191.4M
Кстати, новой Llama-3 здесь нет, ее обучение стоило Meta $100M. Да, больше чем GPT-4.
🤯68👍6❤4🔥2👏1👀1