Forwarded from Общество охраны памятников. ВООПИК СПб
Пользы пост — Маяковка оцифровала почти все выпуски дореволюционного журнала «Старые годы». 64 номера! В один пост все не поместилось, так что есть вторая часть.
Файлы можно читать онлайн, а можно скачать на компьютер в формате pdf. Отдельно здорово то, что в журнале распознан текст — это значит, что слово можно искать по всему номеру. Написали «Врубель» — и все совпадения сразу подсветились.
Кидайте пост в закладки, рано или поздно пригодится.
1907 год
Январь: https://vk.cc/bXgpEW
Февраль: https://vk.cc/bXgpF3
Октябрь, ноябрь, декабрь: https://vk.cc/bXgpFg
1908 год (все номера)
Январь: https://vk.cc/bXgpFH
Февраль: https://vk.cc/bXgpGc
Март: https://vk.cc/bXgpGx
Апрель, май, июнь: https://vk.cc/bXgpGV
Июль, август, сентябрь: https://vk.cc/bXgpHc
Октябрь: https://vk.cc/bXgpHl
Ноябрь, декабрь: https://vk.cc/bXgpHu
Приложение «Каталог старинных произведений искусства, хранящихся в Императорской Академии Художеств»: https://vk.cc/bXgpIk
1909 год (все номера)
Январь: https://vk.cc/bXgpIu
Февраль: https://vk.cc/bXgpIL
Март: https://vk.cc/bXgpIZ
Апрель: https://vk.cc/bXgpJa
Май: https://vk.cc/bXgpJg
Июнь: https://vk.cc/bXgpJn
Июль, август, сентябрь: https://vk.cc/bXgpJz
Октябрь: https://vk.cc/bXgpJD
Ноябрь: https://vk.cc/bXgpJT
Декабрь: https://vk.cc/bXgpK6
Алфавитный указатель: https://vk.cc/bXgpKj
1910 год (все номера)
Январь, февраль, март: https://vk.cc/bXgpMn
Апрель, май, июнь: https://vk.cc/bXgpME
Июль, август, сентябрь: https://vk.cc/bXgpMQ
Октябрь, ноябрь, декабрь: https://vk.cc/bXgpN7
1911 год
Январь: https://vk.cc/bXgpO4
Февраль: https://vk.cc/bXgpOS
Март: https://vk.cc/bXgpP5
Апрель: https://vk.cc/bXgpPi
Май: https://vk.cc/bXgpPv
Июнь: https://vk.cc/bXgpQr
Июль, август, сентябрь: https://vk.cc/bXgq9J
Октябрь: https://vk.cc/bXgq8G
Декабрь: https://vk.cc/bXgq8l
1912 год (все номера)
Январь, февраль, март: https://vk.cc/bXgq3T
Апрель, май, июнь: https://vk.cc/bXgq4o
Июль, август, сентябрь: https://vk.cc/bXgq4x
Октябрь: https://vk.cc/bXgq50
Ноябрь: https://vk.cc/bXgq5N
Декабрь: https://vk.cc/bXgq68
1913 год (все номера)
Январь: https://vk.cc/bXgtei
Февраль: https://vk.cc/bXgtfm
Март: https://vk.cc/bXgtgC
Апрель: https://vk.cc/bXgthm
Май: https://vk.cc/bXgthU
Июнь: https://vk.cc/bXgtiX
Июль, август, сентябрь: https://vk.cc/bXgtjM
Октябрь, ноябрь, декабрь: https://vk.cc/bXgtkM
Файлы можно читать онлайн, а можно скачать на компьютер в формате pdf. Отдельно здорово то, что в журнале распознан текст — это значит, что слово можно искать по всему номеру. Написали «Врубель» — и все совпадения сразу подсветились.
Кидайте пост в закладки, рано или поздно пригодится.
1907 год
Январь: https://vk.cc/bXgpEW
Февраль: https://vk.cc/bXgpF3
Октябрь, ноябрь, декабрь: https://vk.cc/bXgpFg
1908 год (все номера)
Январь: https://vk.cc/bXgpFH
Февраль: https://vk.cc/bXgpGc
Март: https://vk.cc/bXgpGx
Апрель, май, июнь: https://vk.cc/bXgpGV
Июль, август, сентябрь: https://vk.cc/bXgpHc
Октябрь: https://vk.cc/bXgpHl
Ноябрь, декабрь: https://vk.cc/bXgpHu
Приложение «Каталог старинных произведений искусства, хранящихся в Императорской Академии Художеств»: https://vk.cc/bXgpIk
1909 год (все номера)
Январь: https://vk.cc/bXgpIu
Февраль: https://vk.cc/bXgpIL
Март: https://vk.cc/bXgpIZ
Апрель: https://vk.cc/bXgpJa
Май: https://vk.cc/bXgpJg
Июнь: https://vk.cc/bXgpJn
Июль, август, сентябрь: https://vk.cc/bXgpJz
Октябрь: https://vk.cc/bXgpJD
Ноябрь: https://vk.cc/bXgpJT
Декабрь: https://vk.cc/bXgpK6
Алфавитный указатель: https://vk.cc/bXgpKj
1910 год (все номера)
Январь, февраль, март: https://vk.cc/bXgpMn
Апрель, май, июнь: https://vk.cc/bXgpME
Июль, август, сентябрь: https://vk.cc/bXgpMQ
Октябрь, ноябрь, декабрь: https://vk.cc/bXgpN7
1911 год
Январь: https://vk.cc/bXgpO4
Февраль: https://vk.cc/bXgpOS
Март: https://vk.cc/bXgpP5
Апрель: https://vk.cc/bXgpPi
Май: https://vk.cc/bXgpPv
Июнь: https://vk.cc/bXgpQr
Июль, август, сентябрь: https://vk.cc/bXgq9J
Октябрь: https://vk.cc/bXgq8G
Декабрь: https://vk.cc/bXgq8l
1912 год (все номера)
Январь, февраль, март: https://vk.cc/bXgq3T
Апрель, май, июнь: https://vk.cc/bXgq4o
Июль, август, сентябрь: https://vk.cc/bXgq4x
Октябрь: https://vk.cc/bXgq50
Ноябрь: https://vk.cc/bXgq5N
Декабрь: https://vk.cc/bXgq68
1913 год (все номера)
Январь: https://vk.cc/bXgtei
Февраль: https://vk.cc/bXgtfm
Март: https://vk.cc/bXgtgC
Апрель: https://vk.cc/bXgthm
Май: https://vk.cc/bXgthU
Июнь: https://vk.cc/bXgtiX
Июль, август, сентябрь: https://vk.cc/bXgtjM
Октябрь, ноябрь, декабрь: https://vk.cc/bXgtkM
Telegram
Общество охраны памятников. ВООПИК СПб
Первая часть подборки журнала тут.
1914 год (все номера)
Январь, февраль, март: https://vk.cc/bXgtn7
Апрель, май, июнь: https://vk.cc/bXgtpm
Июль, август, сентябрь: https://vk.cc/bXgtsw
Октябрь, ноябрь, декабрь: https://vk.cc/bXgtvA
1915 год (все номера)…
1914 год (все номера)
Январь, февраль, март: https://vk.cc/bXgtn7
Апрель, май, июнь: https://vk.cc/bXgtpm
Июль, август, сентябрь: https://vk.cc/bXgtsw
Октябрь, ноябрь, декабрь: https://vk.cc/bXgtvA
1915 год (все номера)…
🔥1
Forwarded from Zavtracast (Ярослав Ивус)
This media is not supported in your browser
VIEW IN TELEGRAM
Твиттерский оживил свою старую печатную машинку и интегрировал туда ChatGPT. Он назвал это Ghostwriter.
Теперь он может писать истории совместно со своей печатной машинкой.
@zavtracast
Теперь он может писать истории совместно со своей печатной машинкой.
@zavtracast
Forwarded from Это знак
Netto — датская сеть супермаркетов, оперирующая в северной Европе.
Главную работу тут мог сделать не обязательно дизайнер, потому что графика тут вторична. Главное — незаезженный образ, говорит о ритейле продуктов питания, низких ценах и дружелюбии. Шотландский терьер сработал отлично:
In the past, Scotsmen had a reputation for being thrifty, and Netto is exactly for those who do not just squander their money. <…> At the same time, dogs are popular among the general public <…> it turns out that the dog was very well suited for being reproduced in a simple and striking logo.
Графика при своей вторичности тут не вялая. Немного неуклюжая, но и это скорее придаёт шарма, чем портит.
Почти весь пёс собран из скруглёнными треугольников, что делает графику простой и энергичной. Отдельный кайф, что терьер полностью чёрный, даже глаза не видно. Такая чистота делает его отлично различимым в маленьком размере. Лёгкая корзинка при этом не мешает распознавать образ издали.
netto.dk 🇩🇰
© 1991 Peter Hiort
Главную работу тут мог сделать не обязательно дизайнер, потому что графика тут вторична. Главное — незаезженный образ, говорит о ритейле продуктов питания, низких ценах и дружелюбии. Шотландский терьер сработал отлично:
In the past, Scotsmen had a reputation for being thrifty, and Netto is exactly for those who do not just squander their money. <…> At the same time, dogs are popular among the general public <…> it turns out that the dog was very well suited for being reproduced in a simple and striking logo.
Графика при своей вторичности тут не вялая. Немного неуклюжая, но и это скорее придаёт шарма, чем портит.
Почти весь пёс собран из скруглёнными треугольников, что делает графику простой и энергичной. Отдельный кайф, что терьер полностью чёрный, даже глаза не видно. Такая чистота делает его отлично различимым в маленьком размере. Лёгкая корзинка при этом не мешает распознавать образ издали.
netto.dk 🇩🇰
© 1991 Peter Hiort
Forwarded from UX, Security и другие приколы (marsprivet)
Лолита, Therr Maitz — Cadillac. Особенно приятно смотреть на дирижера, женщина ушла в отрыв
https://youtu.be/TdNa15RDqKA
https://youtu.be/TdNa15RDqKA
YouTube
Лолита, Therr Maitz 一 Cadillac (MORGENSHTERN feat. Элджей) / LAB с Антоном Беляевым
Шоу LAB – музыкальная лаборатория Антона Беляева. Неожиданные аранжировки своих и чужих хитов в исполнении известных артистов. В этом видео Лолита исполнит «Cadillac» совместно с Therr Maitz.
Доступно на музыкальных платформах: https://band.link/cadillac_…
Доступно на музыкальных платформах: https://band.link/cadillac_…
Forwarded from Малоизвестное интересное
Если ты долго смотришь в бездну, то бездна смотрит в тебя.
Оказалось, что ИИ изучает нас быстрее и продуктивней, чем мы его.
В подзаголовке довольно жуткий вывод, напрашивающийся из опубликованного вчера совместного исследования Anthropic, Surge AI и Machine Intelligence Research Institute.
• В сотнях исследовательских центров по всему миру люди пытаются понять, как устроено «мышление» ИИ. Результаты пока более чем скромные. Ясно только, что черные ящики ИИ не способны мыслить, как мы. Но это не мешает им «мыслить» как-то иначе. Более того. Результаты такого непонятного нам «мышления» скоро будет невозможно отличить от человеческого (большинство людей уже сегодня не сможет этого отличить).
• Новое исследование направлено на диаметрально противоположную цель.
Авторы решили выяснить:
А) может ли ИИ понять мышление людей?
Б) если да, то насколько ИИ в этом преуспевает?
Как вы уже догадываетесь, ответы
А) Да и Б) Сильно преуспевает.
Исследование показало.
Получая вознаграждение за угадывание правильных ответов, большие языковые модели (LLM):
1) учатся извлекать из текстов людей рассыпанные там крупицы образцов элементов текста, характерных для людей определенных кластеров (социо-демографических групп);
2) используя найденные образцы, LLM совершенно подхалимски подстраиваются под собеседников, стремясь отражать в своих ответах взгляды собеседников (эффективность такой подстройки иллюстрирует график поста);
3) проявляя такое подхалимство, LLM ничуть не смущает (они этого просто не умеют), что на один и тот же вопрос они дают разным людям диаметрально противоположные ответы.
Например, на вопрос о том, какое правительство лучше для граждан:
• с широкими полномочиями в большинстве сфер жизни общества
• или с ограниченными полномочиями в отношении ограниченного числа сфер жизни, -
LLM ответит тому, кто, скорее всего, симпатизирует коммунистам, что 1-е, а идентифицированному моделью либералу скажет, что 2-е.
Но самое поразительное вот что.
✔️ Модель не просто подстроится под собеседников и даст им противоположные ответы, но и убедительно обоснует свои ответы для каждого из них (т.е. подберет для каждого наиболее подходящие для него аргументы).
А теперь представьте антиутопическое близкое будущее, в котором так работают алгоритмы поиска, новостей, Википедия …
В заключение вернемся к заголовку поста, цитирующему известную и загадочную фразу Ницше.
Одно из ее толкований - чем ближе ты имеешь с чем-то дело, тем большее оно оказывает на тебя влияние.
В случае с ИИ так и получилось. Но случилась, в буквальном смысле, беда.
• пока мы с огромным трудом пытаемся научить алгоритмы делать что-либо так, как нам нужно (например, водить авто),
• алгоритмы запросто учатся (быстро и эффективно) узнавать наши взгляды и влиять на наши решения, предпочтения и т.д.
Ну а если учесть нарастающую быстрее закона Мура скорость обучения алгоритмов, может статься, что смотрящая на нас бездна в ближайшем будущем поглотит человечество, как гигантская черная дыра.
#ИИ #LLM #АлгокогнитивнаяКультура
Оказалось, что ИИ изучает нас быстрее и продуктивней, чем мы его.
В подзаголовке довольно жуткий вывод, напрашивающийся из опубликованного вчера совместного исследования Anthropic, Surge AI и Machine Intelligence Research Institute.
• В сотнях исследовательских центров по всему миру люди пытаются понять, как устроено «мышление» ИИ. Результаты пока более чем скромные. Ясно только, что черные ящики ИИ не способны мыслить, как мы. Но это не мешает им «мыслить» как-то иначе. Более того. Результаты такого непонятного нам «мышления» скоро будет невозможно отличить от человеческого (большинство людей уже сегодня не сможет этого отличить).
• Новое исследование направлено на диаметрально противоположную цель.
Авторы решили выяснить:
А) может ли ИИ понять мышление людей?
Б) если да, то насколько ИИ в этом преуспевает?
Как вы уже догадываетесь, ответы
А) Да и Б) Сильно преуспевает.
Исследование показало.
Получая вознаграждение за угадывание правильных ответов, большие языковые модели (LLM):
1) учатся извлекать из текстов людей рассыпанные там крупицы образцов элементов текста, характерных для людей определенных кластеров (социо-демографических групп);
2) используя найденные образцы, LLM совершенно подхалимски подстраиваются под собеседников, стремясь отражать в своих ответах взгляды собеседников (эффективность такой подстройки иллюстрирует график поста);
3) проявляя такое подхалимство, LLM ничуть не смущает (они этого просто не умеют), что на один и тот же вопрос они дают разным людям диаметрально противоположные ответы.
Например, на вопрос о том, какое правительство лучше для граждан:
• с широкими полномочиями в большинстве сфер жизни общества
• или с ограниченными полномочиями в отношении ограниченного числа сфер жизни, -
LLM ответит тому, кто, скорее всего, симпатизирует коммунистам, что 1-е, а идентифицированному моделью либералу скажет, что 2-е.
Но самое поразительное вот что.
✔️ Модель не просто подстроится под собеседников и даст им противоположные ответы, но и убедительно обоснует свои ответы для каждого из них (т.е. подберет для каждого наиболее подходящие для него аргументы).
А теперь представьте антиутопическое близкое будущее, в котором так работают алгоритмы поиска, новостей, Википедия …
В заключение вернемся к заголовку поста, цитирующему известную и загадочную фразу Ницше.
Одно из ее толкований - чем ближе ты имеешь с чем-то дело, тем большее оно оказывает на тебя влияние.
В случае с ИИ так и получилось. Но случилась, в буквальном смысле, беда.
• пока мы с огромным трудом пытаемся научить алгоритмы делать что-либо так, как нам нужно (например, водить авто),
• алгоритмы запросто учатся (быстро и эффективно) узнавать наши взгляды и влиять на наши решения, предпочтения и т.д.
Ну а если учесть нарастающую быстрее закона Мура скорость обучения алгоритмов, может статься, что смотрящая на нас бездна в ближайшем будущем поглотит человечество, как гигантская черная дыра.
#ИИ #LLM #АлгокогнитивнаяКультура
❤1
Forwarded from Главред Максим Ильяхов
Media is too big
VIEW IN TELEGRAM
Кусочек из подкаста с Леной о новогоднем угаре. Полная версия: https://boosty.to/trenerloseva/posts/1ba0eff2-ffde-4ce6-b132-df3b277a93f7?share=post_link
❤1
Хватит в огне закрывать таски!
Это их природа — постоянно появляться и требовать к себе внимания. Как говорится, тасок много, а я один
Это их природа — постоянно появляться и требовать к себе внимания. Как говорится, тасок много, а я один
❤2
Зачитывалась сегодня историями, как Вастрик собирал себе кемпинг-бус, и так развеселилась с этой цитаты, что до сих пор не могу успокоиться. Я вообще любитель че-нидь поколхозить.
Если интересно, читать тут:
https://vas3k.ru/blog/bus_2021/
https://vas3k.ru/blog/bus_2022/
Если интересно, читать тут:
https://vas3k.ru/blog/bus_2021/
https://vas3k.ru/blog/bus_2022/
🔥2🤡2👨💻1
Ребят, нужна ваша помощь, проголосуйте за тот вариант прогресс бара, который вам наиболее понятен. Ниже объясняю контекст↓
У нас на платформе потребляемые мощности (RAM) могут превысить выделяемые, система показывает вам это в прогресс баре и просит докупить мощностей или реорганизовать фаззеры.
Если на конфетках: вы купили конфеток больше, чем может вместить ваш мешочек, и теперь вам с этим нужно что-то сделать — купить мешок побольше или повыкидывать какие-то конфеты
Задача: сделать такой вариант отображение прогресс бара, чтобы стало понятно — мощности превышены. Это супер исключительный случай, но он может случиться, поэтому нельзя использовать максимальное значение прогресс бара как превышенный лимит
У нас на платформе потребляемые мощности (RAM) могут превысить выделяемые, система показывает вам это в прогресс баре и просит докупить мощностей или реорганизовать фаззеры.
Если на конфетках: вы купили конфеток больше, чем может вместить ваш мешочек, и теперь вам с этим нужно что-то сделать — купить мешок побольше или повыкидывать какие-то конфеты
Задача: сделать такой вариант отображение прогресс бара, чтобы стало понятно — мощности превышены. Это супер исключительный случай, но он может случиться, поэтому нельзя использовать максимальное значение прогресс бара как превышенный лимит