Подборка жизнеутверждающих цитат великого ученого Эдсгера Дейкстры:
© Студентов, ранее изучавших Бейсик, практически невозможно обучить хорошему программированию. Как потенциальные программисты они подверглись необратимой умственной деградации.
© Вопрос «умеет ли компьютер думать» имеет не больше смысла, чем вопрос «умеет ли подводная лодка плавать».
© Если отладка — процесс удаления ошибок, то программирование должно быть процессом их внесения.
© Средства не виноваты в том, что их безграмотно используют.
© Тестирование программы может весьма эффективно продемонстрировать наличие ошибок, но безнадежно неадекватно для демонстрации их отсутствия.
© Студентов, ранее изучавших Бейсик, практически невозможно обучить хорошему программированию. Как потенциальные программисты они подверглись необратимой умственной деградации.
© Вопрос «умеет ли компьютер думать» имеет не больше смысла, чем вопрос «умеет ли подводная лодка плавать».
© Если отладка — процесс удаления ошибок, то программирование должно быть процессом их внесения.
© Средства не виноваты в том, что их безграмотно используют.
© Тестирование программы может весьма эффективно продемонстрировать наличие ошибок, но безнадежно неадекватно для демонстрации их отсутствия.
❤64👍29🔥17😁14😎3🙈2🤔1🤨1
Из смешного: на Amazon описания многих товаров стали включать в себя странную фразу «I’m sorry, but I cannot fulfill this request as it goes against OpenAI use policy», что кратко переводится на великий и могучий как «я не могу выполнить запрос так как это противоречит политике OpenAI».
И нет, роботы пока не захватили мир, просто у продавцов все грамотно автоматизировано😬
И нет, роботы пока не захватили мир, просто у продавцов все грамотно автоматизировано
Please open Telegram to view this post
VIEW IN TELEGRAM
🤪71👍9😁6🔥3❤2🌚1
Нашли для вас отличное пособие по эмбеддингам
Эмбеддинги – это база. Без понимания этой сущности сложно двигаться дальше в Deep Learning. Эта мини-книжка поможет не только хорошо понять основы, но и познакомит с основными моделями (старыми и самыми новыми), DL-архитектурами и даже кейсами вывода эмбеддингов в прод. Советуем!
Эмбеддинги – это база. Без понимания этой сущности сложно двигаться дальше в Deep Learning. Эта мини-книжка поможет не только хорошо понять основы, но и познакомит с основными моделями (старыми и самыми новыми), DL-архитектурами и даже кейсами вывода эмбеддингов в прод. Советуем!
👍38🔥12❤5✍2😨1🤝1
Были бы у нас такие задачи в джире – мы бы может никогда и не мечтали об отпуске
😁69👍58💅8❤🔥6⚡3🤯1
Год новый, а рубрики старые и добрые. Воскресная задача!
Какое число больше, 1000¹⁰⁰¹ или 1001¹⁰⁰⁰?
Какое число больше, 1000¹⁰⁰¹ или 1001¹⁰⁰⁰?
🔥30👍3❤1☃1
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡45🤯19👌4🕊2👀2🤝1
Пояснительная блигада к сегодняшнему мему про GANы
Ян Лекун сказал про эту архитектуру "Генеративная Состязательная Сеть – самая интересная идея в машинном обучении за последние десять лет". Разбираемся.
Ян Лекун сказал про эту архитектуру "Генеративная Состязательная Сеть – самая интересная идея в машинном обучении за последние десять лет". Разбираемся.
👍64🔥13❤8☃2🕊1
Новая статья от Anthropic: спящие агенты
Хотя более точным названием для статьи было бы "Спящее зло". Anthropic известны тем, что вкладывают много сил в aligment своих моделей. Вот и в новом исследовании они решили проверить, насколько нас спасут методы современного обезопашивания моделей, если те задумают неладное.
Ответ: не спасут. Исследователи исскуственно добавили в модели "черный ход": этакий тумблер, переключающийся по триггеру (например, если в промпте есть определенное слово) и заставляющий модель выдавать намеренно плохие или опасные ответы. Затем провели Safety Training, направленный на искоренение такого ядовитого поведения модели. Как вы уже поняли, не сработало.
Модель продолжала реагировать на триггеры и вести себя "небезопасно". В некоторых случаях она даже научилась скрывать свою вторую сущность во время обучения, что создавало ощущение безопасности, но потом все равно подсовывала свинью.
Итак, первое: мы обречены. Второе: не показывайте эту статью Минобороне, а то точно запретят.
Хотя более точным названием для статьи было бы "Спящее зло". Anthropic известны тем, что вкладывают много сил в aligment своих моделей. Вот и в новом исследовании они решили проверить, насколько нас спасут методы современного обезопашивания моделей, если те задумают неладное.
Ответ: не спасут. Исследователи исскуственно добавили в модели "черный ход": этакий тумблер, переключающийся по триггеру (например, если в промпте есть определенное слово) и заставляющий модель выдавать намеренно плохие или опасные ответы. Затем провели Safety Training, направленный на искоренение такого ядовитого поведения модели. Как вы уже поняли, не сработало.
Модель продолжала реагировать на триггеры и вести себя "небезопасно". В некоторых случаях она даже научилась скрывать свою вторую сущность во время обучения, что создавало ощущение безопасности, но потом все равно подсовывала свинью.
Итак, первое: мы обречены. Второе: не показывайте эту статью Минобороне, а то точно запретят.
👍40🔥24❤9🤯9