Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.79K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Forwarded from Русский research
Как Донской технический университет Кембридж обогнал

Прорыв ДГТУ в рейтинге THE насмешил буквально всех. Отдельно доставляет опережение Кембриджа, Королевского колледжа Лондона или, например, университета Гейдельберга по показателю цитируемости. Механику давно поняли и в чате, и вот здесь, и вообще всюду.

Возьмем публикации ДГТУ в WoS за пять лет. Из 1759 публикаций более 1000 — конференции, статей только 688 (большинство Open Access). Самоцитирования дают порядка 2/3 от общего числа ссылок. Среди тематик доминируют непрофильные педагогика, экономика и экология.

Секрет взлома рейтинга кроется в массированной покупке публикаций в трудах конференций, а затем их оперативном и равномерном цитировании. Так, некоторые сборники содержат более сотни статей из ДГТУ.

Отметим и широту интересов ректора Б. Месхи: от упрочнения бетона и теплового излучения рабочего места крановщика до психолого-педагогических аспектов развития студентов и графеновых нанотрубок. С таким руководителем прорыв будет только шириться!
-А вы даунов на работу берёте?
-Нет, только рассматриваем
-Красивое...
я хочу купить кроссовки в своем размере
фарафетч:
This media is not supported in your browser
VIEW IN TELEGRAM
Новые вариации на тему clip + vqgan, теперь можно в пиксельных картинках выбирать палету Цветов.
Коллаб
#чтивонаночь
Иронично что в некотором роде люди пишущие про: от прививки я отупел были правы отчасти. Коронавирус действительно склеивает нервные клетки - тем самым ограничивая их взаимодействия.
Подробнее
> Выучил AI писать говнокод за себя

> Тимлид говорит что ты стал лучше писать код

> А ты и не против
Самый короткий гайд по оптимизациям внутри торча
Происходит шок контент
Forwarded from Neural Pushkin
Как поступить в европейский вуз? В чем состоит его достоинство и как с ним справиться, если не можешь выучиться на отлично (что довольно часто встречается)? Что делать молодому человеку без высшего образования; какое решение принять для себя самому?» Ответ: учиться по-прежнему у вас будет нечего — но зато потом вам будут позволено заниматься литературой или историей…
Forwarded from Data is data
Москва становится похожа на Париж немножко. Хотя, надо сказать, во Франции агрегаторы под значительным прессингом.
Реально нищие челы в лице главного админа канала ездят на бизнесе по цене эконома
Мем из физкека, но мне смешно
🍌1
🎨 История пикселя

Made in USSR

#субботний_лонгрид

Алви Рэй Смит исследовал историю пикселя. Она начинается с Фурье во времена Французской революции. Известная для математиков фамилия. Но вот ключевой персонаж вас сильно удивит.

Возможно, самым неожиданным человеком в этой истории является Владимир Котельников. Именно он превратил идею Фурье в пиксель. Родившийся в Казани из многовекового рода математиков, Котельников пережил всю советскую эпоху.

Смит пишет, что НКВД дважды пытался закрыть Котельникова, но ему помогла Валерия Голубцова, дружившая с Лениным.

Удивительная история. Читайте на здоровье!

Ссылка: https://aeon.co/essays/a-biography-of-the-pixel-the-elementary-particle-of-pictures
#чтивонаночь
Bart
Крайне любопытная архитектура которой долгое время я уделял преступно мало внимания.
Отличия от Берт:
Во-первых это честная авторегрессионная модель как гпт
Во вторых она умеет в seq2seq, те в целом умеет в генерацию текста пусть и с ограничениями, при определенных странных системах трейна она может использоваться как бредогенерилка.
Это честный трансформер как roberta, а ещё довольно близок по скорам.
Схожести
Она так же как Берт двунаправленная (кэп с вами)


Тык ссылка на пейпер
Тык имплементация
не благодарите