Нашли для вас отличное пособие по эмбеддингам
Эмбеддинги – это база. Без понимания этой сущности сложно двигаться дальше в Deep Learning. Эта мини-книжка поможет не только хорошо понять основы, но и познакомит с основными моделями (старыми и самыми новыми), DL-архитектурами и даже кейсами вывода эмбеддингов в прод. Советуем!
Эмбеддинги – это база. Без понимания этой сущности сложно двигаться дальше в Deep Learning. Эта мини-книжка поможет не только хорошо понять основы, но и познакомит с основными моделями (старыми и самыми новыми), DL-архитектурами и даже кейсами вывода эмбеддингов в прод. Советуем!
👍38🔥12❤5✍2😨1🤝1
Были бы у нас такие задачи в джире – мы бы может никогда и не мечтали об отпуске
😁69👍58💅8❤🔥6⚡3🤯1
Год новый, а рубрики старые и добрые. Воскресная задача!
Какое число больше, 1000¹⁰⁰¹ или 1001¹⁰⁰⁰?
Какое число больше, 1000¹⁰⁰¹ или 1001¹⁰⁰⁰?
🔥30👍3❤1☃1
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡45🤯19👌4🕊2👀2🤝1
Пояснительная блигада к сегодняшнему мему про GANы
Ян Лекун сказал про эту архитектуру "Генеративная Состязательная Сеть – самая интересная идея в машинном обучении за последние десять лет". Разбираемся.
Ян Лекун сказал про эту архитектуру "Генеративная Состязательная Сеть – самая интересная идея в машинном обучении за последние десять лет". Разбираемся.
👍64🔥13❤8☃2🕊1
Новая статья от Anthropic: спящие агенты
Хотя более точным названием для статьи было бы "Спящее зло". Anthropic известны тем, что вкладывают много сил в aligment своих моделей. Вот и в новом исследовании они решили проверить, насколько нас спасут методы современного обезопашивания моделей, если те задумают неладное.
Ответ: не спасут. Исследователи исскуственно добавили в модели "черный ход": этакий тумблер, переключающийся по триггеру (например, если в промпте есть определенное слово) и заставляющий модель выдавать намеренно плохие или опасные ответы. Затем провели Safety Training, направленный на искоренение такого ядовитого поведения модели. Как вы уже поняли, не сработало.
Модель продолжала реагировать на триггеры и вести себя "небезопасно". В некоторых случаях она даже научилась скрывать свою вторую сущность во время обучения, что создавало ощущение безопасности, но потом все равно подсовывала свинью.
Итак, первое: мы обречены. Второе: не показывайте эту статью Минобороне, а то точно запретят.
Хотя более точным названием для статьи было бы "Спящее зло". Anthropic известны тем, что вкладывают много сил в aligment своих моделей. Вот и в новом исследовании они решили проверить, насколько нас спасут методы современного обезопашивания моделей, если те задумают неладное.
Ответ: не спасут. Исследователи исскуственно добавили в модели "черный ход": этакий тумблер, переключающийся по триггеру (например, если в промпте есть определенное слово) и заставляющий модель выдавать намеренно плохие или опасные ответы. Затем провели Safety Training, направленный на искоренение такого ядовитого поведения модели. Как вы уже поняли, не сработало.
Модель продолжала реагировать на триггеры и вести себя "небезопасно". В некоторых случаях она даже научилась скрывать свою вторую сущность во время обучения, что создавало ощущение безопасности, но потом все равно подсовывала свинью.
Итак, первое: мы обречены. Второе: не показывайте эту статью Минобороне, а то точно запретят.
👍40🔥24❤9🤯9
Легендарно: Сэм Альтман на подкасте у Билла Гейтса
Жаль, что всего пол часа… Хотя за это время Гейтс успел признаться, что не верил в OpenAI: «Я не ожидал, что ChatGPT окажется настолько хорош; это поражает меня». Также собеседники обсудили, как общество приспособится к AGI, чем люди займутся после его появления и почему современные ИИ можно считать глупыми.
😻 Уже доступно на YouTube
Жаль, что всего пол часа… Хотя за это время Гейтс успел признаться, что не верил в OpenAI: «Я не ожидал, что ChatGPT окажется настолько хорош; это поражает меня». Также собеседники обсудили, как общество приспособится к AGI, чем люди займутся после его появления и почему современные ИИ можно считать глупыми.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41👍13🤯5❤3🕊1🌚1