А у нас новая интересная позиция!
Muse Group ищет Senior Product Designer
Mu.se — это компания, которая разрабатывает приложения для музыкантов. Вы наверняка слышали про Ultimate Guitar — самую большую в мире коллекцию гитарных табов. Но кроме этого у Muse ещё пачка продуктов, среди которых MuseScore.com — самая большая онлайн-коллекция нот (13М пользователей, больше миллиона композиций) и один из самых популярных нотных редакторов. А ещё, если вы интересуетесь дизайном, то наверняка знаете дизайн- и бренд-директора Mu.se — Юру Ветрова.
В MuseScore.com нужен Senior Product Designer, да непростой. Мы ищем дизайнера, который свободно умеет читать ноты. И свободно говорит по-английски, так как основной партнёр этой роли — продакт-оунер — носитель английского. Офис компании на Кипре, но можно работать удалённо, если вы не слишком далеко от Кипрского часового пояса.
Больше подробностей и емейл для отклика тут
Пожалуйста, поделитесь с теми, кому это может быть интересно.
Muse Group ищет Senior Product Designer
Mu.se — это компания, которая разрабатывает приложения для музыкантов. Вы наверняка слышали про Ultimate Guitar — самую большую в мире коллекцию гитарных табов. Но кроме этого у Muse ещё пачка продуктов, среди которых MuseScore.com — самая большая онлайн-коллекция нот (13М пользователей, больше миллиона композиций) и один из самых популярных нотных редакторов. А ещё, если вы интересуетесь дизайном, то наверняка знаете дизайн- и бренд-директора Mu.se — Юру Ветрова.
В MuseScore.com нужен Senior Product Designer, да непростой. Мы ищем дизайнера, который свободно умеет читать ноты. И свободно говорит по-английски, так как основной партнёр этой роли — продакт-оунер — носитель английского. Офис компании на Кипре, но можно работать удалённо, если вы не слишком далеко от Кипрского часового пояса.
Больше подробностей и емейл для отклика тут
Пожалуйста, поделитесь с теми, кому это может быть интересно.
🔥34❤12🤔3👎2
Этого поста не должно было бы быть. Но каждую неделю у меня случаются созвоны, на которых собеседника крайне плохо слышно или видно. Сегодня давайте про звук поговорим.
Как нормально звучать на созвоне
Казалось бы, ещё в 2020-м году многие из нас были вынуждены познакомиться с удаленной работой. Уж можно было за это время как-то разобраться. И ладно там обычные рабочие созвоны, это ещё полбеды. Но люди же собеседоваться приходят или питчить, а их не слышно.
Когда приходится сильно напрягаться и вслушиваться, я прям чувствую, как энергия утекает на глазах. Могу сильно устать за один часовой созвон.
Как сделать, чтобы вас было нормально слышно:
- Найдите тихое место с хорошим интернетом, пожалуйста. Не надо подключаться на собеседование из шумного кафе с плохим вайфаем.
- Встроенный в макбуки микрофон очень неплох, но только если вы наклоняетесь близко к ноуту. Вообще, чем ближе вы к ноуту, тем лучше получается качество звука. Заодно можете выглядеть более напористо (тут правда даже не знаю, плюс ли это). Бывает наоборот, ради красивой картинки человек ставит ноутбук куда-то далеко от себя — и в такой конфигурации его очень плохо слышно.
- Ещё очень хороший микрофон на удивление в самых простых проводных эппловских наушниках. Это те самые, которые раньше вкладывали в коробку с девайсом. С ними можно писать подкасты, я абсолютно серьёзно. Хороший выбор для важных созвонов.
- А вот у эйрподсов, при всей моей любви к ним, с микрофоном всё сильно хуже. А может его и невозможно сделать очень качественным при таком расположении. То есть этот микрофон абсолютно ок для обычных повседневных созвонов со знакомыми. Но для важных созвонов — уже не рекомендовал бы. В сочетании с зумовским сжатием звука иногда получается катастрофически плохо.
- Вообще попробуйте просто записать несколько фраз через разные микрофоны, которые есть у вас под рукой, и послушайте, что получится — сразу глаза открываются (то есть уши).
По поводу чего можно не волноваться:
- Равномерный фоновый шум. Шумоподавление встроили во все звонилки уже, эта проблема исчезла.
- Крики детей и лай собак. Вас они отвлекают больше, остальным скорее всего ок — ну такие вот особенности работы из дома.
- Ещё некоторые ребята почему-то уверены, что им обязательно надо быть в наушниках, иначе будет эхо. Не будет, можно спокойно и без наушников, если окружающая обстановка позволяет, и если вы близко к ноутбуку (см. выше).
Перешлите этот пост тем вашим знакомым, которых вечно плохо слышно.
Как нормально звучать на созвоне
Казалось бы, ещё в 2020-м году многие из нас были вынуждены познакомиться с удаленной работой. Уж можно было за это время как-то разобраться. И ладно там обычные рабочие созвоны, это ещё полбеды. Но люди же собеседоваться приходят или питчить, а их не слышно.
Когда приходится сильно напрягаться и вслушиваться, я прям чувствую, как энергия утекает на глазах. Могу сильно устать за один часовой созвон.
Как сделать, чтобы вас было нормально слышно:
- Найдите тихое место с хорошим интернетом, пожалуйста. Не надо подключаться на собеседование из шумного кафе с плохим вайфаем.
- Встроенный в макбуки микрофон очень неплох, но только если вы наклоняетесь близко к ноуту. Вообще, чем ближе вы к ноуту, тем лучше получается качество звука. Заодно можете выглядеть более напористо (тут правда даже не знаю, плюс ли это). Бывает наоборот, ради красивой картинки человек ставит ноутбук куда-то далеко от себя — и в такой конфигурации его очень плохо слышно.
- Ещё очень хороший микрофон на удивление в самых простых проводных эппловских наушниках. Это те самые, которые раньше вкладывали в коробку с девайсом. С ними можно писать подкасты, я абсолютно серьёзно. Хороший выбор для важных созвонов.
- А вот у эйрподсов, при всей моей любви к ним, с микрофоном всё сильно хуже. А может его и невозможно сделать очень качественным при таком расположении. То есть этот микрофон абсолютно ок для обычных повседневных созвонов со знакомыми. Но для важных созвонов — уже не рекомендовал бы. В сочетании с зумовским сжатием звука иногда получается катастрофически плохо.
- Вообще попробуйте просто записать несколько фраз через разные микрофоны, которые есть у вас под рукой, и послушайте, что получится — сразу глаза открываются (то есть уши).
По поводу чего можно не волноваться:
- Равномерный фоновый шум. Шумоподавление встроили во все звонилки уже, эта проблема исчезла.
- Крики детей и лай собак. Вас они отвлекают больше, остальным скорее всего ок — ну такие вот особенности работы из дома.
- Ещё некоторые ребята почему-то уверены, что им обязательно надо быть в наушниках, иначе будет эхо. Не будет, можно спокойно и без наушников, если окружающая обстановка позволяет, и если вы близко к ноутбуку (см. выше).
Перешлите этот пост тем вашим знакомым, которых вечно плохо слышно.
❤140👍49🔥2🤬2
Смотрел вчера кейноут OpenAPI, потом полночи тестировал GPT-4 Turbo (Пушка! Но оказалось, что при окне контекста на входе в в 128К токенов, на выходе сгенерировать модель может только 4096 — это сильно ограничивает многие применения, ну да ладно).
Про сами анонсы все уже написали — они утекли и были широко известны накануне, все слухи оказались правдой. Самый краткий рекап у Лёши Хахунова.
А я напишу про мысли и ощущения.
Во-первых, кроме нескольких AI-каналов, презентацию почти никто не освещал в прямом эфире. Как так-то? Даже эппловские анонсы люди продолжают смотреть и комментировать, они попадают в новости для широкой публики. В общем, полностью согласен с Толей Марьиным: «Одно из самых важных в мире событий в долгосрочном плане, а смотрят его 40к людей».
Во-вторых, плагины к GPT как будто не полетели, и их на презентации не вспоминали. Зато анонсировали возможность всем создавать свои варианты GPT — «ассистентов» — и для них будет стор. Вот ещё одна прямая параллель с эпплом.
В-третьих, меня поражает скорость, с которой OpenAI релизят новые штуки. И это они ещё говорят, что стараются не спешить, чтобы человечество успевало осознавать и применять. Я не успеваю, если честно. ChatGPT мы увидели меньше года назад. GPT-4 появилась в марте и всё ещё остаётся самой способной моделью. (Как я понимаю, причина, по которой никто не смог догнать её, — это дефицит видеокарточек в мире. Не на чем тренировать модели). Вроде только-только успел попробовать GPT-4V и восхититься, а тут уже вон сколько обновлений.
Ещё к слову про темпы изменений. У меня много было мыслей про продуктовый дизайн ChatGPT (и веб-версии, и приложения). Хотел даже написать пост про это, но пока cобирался, в приложении, например, уже почти всё успели исправить ¯\_(ツ)_/¯
В общем, как говорит тот же Сэм Альтман, каждый следующий айфон не так уж сильно отличается от предыдущего. Но если сравнить сейчас айфон 15 с самым первым — разница невероятная. Боюсь, мы даже близко представить не можем сейчас, что сможет делать условная GPT-15. Если считать, что айфон изменил мир, то у AI потенциал намного-намного больше.
Про сами анонсы все уже написали — они утекли и были широко известны накануне, все слухи оказались правдой. Самый краткий рекап у Лёши Хахунова.
А я напишу про мысли и ощущения.
Во-первых, кроме нескольких AI-каналов, презентацию почти никто не освещал в прямом эфире. Как так-то? Даже эппловские анонсы люди продолжают смотреть и комментировать, они попадают в новости для широкой публики. В общем, полностью согласен с Толей Марьиным: «Одно из самых важных в мире событий в долгосрочном плане, а смотрят его 40к людей».
Во-вторых, плагины к GPT как будто не полетели, и их на презентации не вспоминали. Зато анонсировали возможность всем создавать свои варианты GPT — «ассистентов» — и для них будет стор. Вот ещё одна прямая параллель с эпплом.
В-третьих, меня поражает скорость, с которой OpenAI релизят новые штуки. И это они ещё говорят, что стараются не спешить, чтобы человечество успевало осознавать и применять. Я не успеваю, если честно. ChatGPT мы увидели меньше года назад. GPT-4 появилась в марте и всё ещё остаётся самой способной моделью. (Как я понимаю, причина, по которой никто не смог догнать её, — это дефицит видеокарточек в мире. Не на чем тренировать модели). Вроде только-только успел попробовать GPT-4V и восхититься, а тут уже вон сколько обновлений.
Ещё к слову про темпы изменений. У меня много было мыслей про продуктовый дизайн ChatGPT (и веб-версии, и приложения). Хотел даже написать пост про это, но пока cобирался, в приложении, например, уже почти всё успели исправить ¯\_(ツ)_/¯
В общем, как говорит тот же Сэм Альтман, каждый следующий айфон не так уж сильно отличается от предыдущего. Но если сравнить сейчас айфон 15 с самым первым — разница невероятная. Боюсь, мы даже близко представить не можем сейчас, что сможет делать условная GPT-15. Если считать, что айфон изменил мир, то у AI потенциал намного-намного больше.
👍98❤32🔥24👎4😢2
Опен-сорс музыки
История с новой песней the Beatles Now and Then натолкнула на размышления.
Кратко перескажу эту историю, если вы вдруг пропустили (но лучше посмотрите короткий фильм): в 1994 Йоко Оно передала битлам кассету с демо-записями нескольких неизданных песен Леннона, которую он записал у себя дома в 1977. В 1995 трое оставшихся в живых битлов попытались закончить одну из этих песен, Now and Then, но то, что получалось, им не нравилось — фортепиано в записи Леннона мешало. В 2001 не стало Харрисона, и, казалось, в истории поставлена точка. Наконец, в 2023-м, почти четверть века спустя, с помощью AI удалось отделить голос Леннона от фортепиано — и это позволило вернуться к композиции. Ринго записал новую партию ударных, Пол сыграл на басу, рояле и записал гитарное соло + взяли запись гитары Джорджа, которую сделали в 1995-м, да ещё добавили струнную группу. Получилась настоящая новая песня Битлз, в том смысле, что в её записи действительно приняли участие все четверо.
Эта история меня довольно здорово взбудоражила. И стало интересно вот что. Если ещё лет -дцать назад звукосведение было доступно только профессионалам и требовало супер-сложного оборудования, то сегодня свести песню можно хоть на телефоне. Если ещё год назад задача отделить голос от фортепиано была практически нерешаемой даже для профессионалов, то сегодня для этого есть всем доступные продукты вроде lalal.ai.
Маленький оффтоп: кажется, базовые навыки работы с картинками, аудио и видео — это как новая компьютерная грамотность. Легко может сделать каждый подросток, и поразительно трудно даётся большинству взрослых.
Так вот. Представляете, что могло бы получиться, если бы какое-то количество песен тех же Битлов можно было бы заопенсорсить? То есть сделать так, чтобы у нас в открытом доступе появились бы оригинальные оцифрованные ленты с отдельными дорожками каждого инструмента и партии. Представляете, если можно было бы внимательно расслышать каждую партию, например, Богемской Рапсодии? (Как в гениальных разборах Рика Беато. Кстати, откуда он берёт эти отдельные треки?)
И не просто расслышать, а сделать свой микс, новый, совершенно другой. Или, например, обработать каждую из дорожек нейросетью, чтобы она зазвучала более современным плотным звуком. Или вообще сыграть совершенно новую аранжировку, оставив оригинальный вокал (тут передаём привет группе Кино — дико кайфую с того, как они по-новому сыграли оригинальный материал). Или сделать «облегчённую» аранжировку, оставив только пару инструментов.
Короче, уверен, это всё привело бы к лавине классных новых вариантов наших любимых песен. И оживило бы творчество Леннона, Меркьюри, Кобейна, Цоя, Хендрикса, Пресли, Уайнхаус, продолжите список сами. (Да, сейчас появляются ещё сгенерённые нейросетями треки, как будто бы «спетые» этими голосами, но эта ветка экспериментов, хотя и небезынтересна, меня гораздо меньше трогает.)
Вообще кажется, основные принципы опен-сорса вполне могли бы быть применимы к музыке тоже. Что остаётся непонятным, так это есть ли тут место для какой-либо модели монетизации. Могли ли бы, например, стриминговые платформы перечислять одну копеечку авторам микса, а другую — правообладателям оригинальных записей? А может, это и не нужно, и какую-то часть это богатства можно было бы сделать абсолютно бесплатной и открытой для всех? Что думаете?
История с новой песней the Beatles Now and Then натолкнула на размышления.
Кратко перескажу эту историю, если вы вдруг пропустили (но лучше посмотрите короткий фильм): в 1994 Йоко Оно передала битлам кассету с демо-записями нескольких неизданных песен Леннона, которую он записал у себя дома в 1977. В 1995 трое оставшихся в живых битлов попытались закончить одну из этих песен, Now and Then, но то, что получалось, им не нравилось — фортепиано в записи Леннона мешало. В 2001 не стало Харрисона, и, казалось, в истории поставлена точка. Наконец, в 2023-м, почти четверть века спустя, с помощью AI удалось отделить голос Леннона от фортепиано — и это позволило вернуться к композиции. Ринго записал новую партию ударных, Пол сыграл на басу, рояле и записал гитарное соло + взяли запись гитары Джорджа, которую сделали в 1995-м, да ещё добавили струнную группу. Получилась настоящая новая песня Битлз, в том смысле, что в её записи действительно приняли участие все четверо.
Эта история меня довольно здорово взбудоражила. И стало интересно вот что. Если ещё лет -дцать назад звукосведение было доступно только профессионалам и требовало супер-сложного оборудования, то сегодня свести песню можно хоть на телефоне. Если ещё год назад задача отделить голос от фортепиано была практически нерешаемой даже для профессионалов, то сегодня для этого есть всем доступные продукты вроде lalal.ai.
Маленький оффтоп: кажется, базовые навыки работы с картинками, аудио и видео — это как новая компьютерная грамотность. Легко может сделать каждый подросток, и поразительно трудно даётся большинству взрослых.
Так вот. Представляете, что могло бы получиться, если бы какое-то количество песен тех же Битлов можно было бы заопенсорсить? То есть сделать так, чтобы у нас в открытом доступе появились бы оригинальные оцифрованные ленты с отдельными дорожками каждого инструмента и партии. Представляете, если можно было бы внимательно расслышать каждую партию, например, Богемской Рапсодии? (Как в гениальных разборах Рика Беато. Кстати, откуда он берёт эти отдельные треки?)
И не просто расслышать, а сделать свой микс, новый, совершенно другой. Или, например, обработать каждую из дорожек нейросетью, чтобы она зазвучала более современным плотным звуком. Или вообще сыграть совершенно новую аранжировку, оставив оригинальный вокал (тут передаём привет группе Кино — дико кайфую с того, как они по-новому сыграли оригинальный материал). Или сделать «облегчённую» аранжировку, оставив только пару инструментов.
Короче, уверен, это всё привело бы к лавине классных новых вариантов наших любимых песен. И оживило бы творчество Леннона, Меркьюри, Кобейна, Цоя, Хендрикса, Пресли, Уайнхаус, продолжите список сами. (Да, сейчас появляются ещё сгенерённые нейросетями треки, как будто бы «спетые» этими голосами, но эта ветка экспериментов, хотя и небезынтересна, меня гораздо меньше трогает.)
Вообще кажется, основные принципы опен-сорса вполне могли бы быть применимы к музыке тоже. Что остаётся непонятным, так это есть ли тут место для какой-либо модели монетизации. Могли ли бы, например, стриминговые платформы перечислять одну копеечку авторам микса, а другую — правообладателям оригинальных записей? А может, это и не нужно, и какую-то часть это богатства можно было бы сделать абсолютно бесплатной и открытой для всех? Что думаете?
❤82👍20🤔6
О, комменты сломались в предыдущем посте 🙈 давайте обсуждать тут тогда.
❤7
Сергей Андронов, Head of Brand Design @ Manychat и автора канала @designgest позвал поговорить голосом про то, что мне сейчас интересно.
То есть буквально об этом — что вообще такое интерес, как он меняется, и почему это важно.
Говорить будем в прямом эфире в этот четверг 16 ноября в 20:00 по Москве — прямо в телеграме, в канале @designgest.
То есть буквально об этом — что вообще такое интерес, как он меняется, и почему это важно.
Говорить будем в прямом эфире в этот четверг 16 ноября в 20:00 по Москве — прямо в телеграме, в канале @designgest.
👍54❤20🔥8👎1
Выходцы из Apple запустили AI Pin — новое устройство, представляющее собой небольшой значок с камерой, микрофоном, динамиком и мини-проектором. С интересом наблюдаю крайне противоречивые реакции — почему-то очень много скепсиса и придирок вроде «А какую задачу это решает?» или «Я всё то же самое могу с телефоном или часами делать».
Вообще удивлён, что их так затроллили в твиттере. Мне AI Pin показался крайне любопытным. На мгновение даже почувствовал себя в 2014, на пике моего техно-оптимизма. Попробую рассказать, почему. Но начать придётся чуть издалека, уж простите.
Смартфон — устройство с экраном, мультитачем и экранной клавиатурой как основными способами ввода. Это было супер-круто в 2007, определило развитие индустрии и позволило появиться новым категориям приложений (и вообще идее приложений и апп стора): Maps, Instagram, Uber, Airbnb, Spotify, Messengers и вот это всё.
У меня сложные отношения с моим телефоном — его в моей жизни больше, чем мне бы хотелось. Периодически залипаю, и не рад этому. Это при том, что моё среднее время с телефоном — где-то 2.5 часа в сутки. У тинейджеров в среднем 8 часов в день. У меня правда ещё есть комп, хотя за компом большую часть времени работаю. Так или иначе, я не рад.
У AI есть потенциал к тому, чтобы поменять парадигму взаимодействия с устройствами. Например, сделать дефолтным голосовой ввод (это быстрее, чем набирать + там есть целый слой эмоций и всего такого, что не передаётся текстом) и/или ввод камерой, когда твой AI-ассистент буквально видит то же, что и ты.
// Заметка на полях: вы уже попробовали поиграть с GPT-4V? Офигенно распознаёт и описывает картинки. Я фоткал просто предметы вокруг на камеру и получал супер-точные классные описания. Пугающе хорошо видит всё, да ещё и распознаёт текст, включая рукописный.
Именно сейчас технологии (мультимодальные LLM, speech recognition & synthesis и т. д.) наконец дошли до того состояния, когда действительно стало возможным сделать AI-ассистента, который по-настоящему всё понимает, видит и может тебе помогать и отвечать на уровне смышлёного живого человека-ассистента. (С этой идеей персонального ассистента, который решит все проблемы с календарём, все носятся с 2010-х, но пока его не получалось сделать. Та же Siri. Но вот теперь наконец получится.)
Это значит, что вообще говоря, есть место для устройств совершенно нового форм-фактора, с которыми можно было бы общаться в основном голосом, и которые могли бы всё видеть и понимать. Дальше можно пофантазировать, какие форм-факторы могли бы сработать:
- очки со встроенной камерой;
- просто наушник — может там тоже можно камеру аккуратно поставить?
- или вот значок на груди или брошка для галстука или что-то такое;
- кулон на шее
и т. д.
// Ещё заметка на полях: вроде Джони Айв и Сэм Альтман что-то замышляют — мне кажется, это тоже может быть устройство вот такого рода.
Какие юзкейсы это устройство сможет закрывать — да практически все те же, что и телефон, плюс наверняка какие-то новые, про которые мы мало что понимаем.
Вот простейший пример юзкейса: мне часто бывает надо на бегу написать кому-то что-то. Но некогда / неудобно открывать телефон и формулировать буквами. Плюс, открывая, я сразу же отвлекаюсь, и иногда вообще забываю, что и кому хотел сказать. А тут просто говоришь устройству: «напиши в школу, что мой ребёнок сегодня пропустит» — и оно находит нужный канал и нужные слова и пишет. Ну кайф же.
Или живой перевод в реальном времени — мне кажется, что лет через 10 учить иностранные языки будут только гики и фанаты ради развлечения и в качестве хобби. Как сейчас музыку на виниле можно слушать. Но для утилитарных целей это никому не будет нужно. У каждого будет просто наушник в ухе, который будет в реальном времени переводить и озвучивать с любого языка на твой, да ещё сохраняя голос и интонации твоего собеседника. С людьми из всех стран мира мы просто будем по-русски говорить и слышать их ответы на русском. Кажется, мы вообще последнее поколение, которому ещё нужно было учить языки и работать над акцентами.
Вообще удивлён, что их так затроллили в твиттере. Мне AI Pin показался крайне любопытным. На мгновение даже почувствовал себя в 2014, на пике моего техно-оптимизма. Попробую рассказать, почему. Но начать придётся чуть издалека, уж простите.
Смартфон — устройство с экраном, мультитачем и экранной клавиатурой как основными способами ввода. Это было супер-круто в 2007, определило развитие индустрии и позволило появиться новым категориям приложений (и вообще идее приложений и апп стора): Maps, Instagram, Uber, Airbnb, Spotify, Messengers и вот это всё.
У меня сложные отношения с моим телефоном — его в моей жизни больше, чем мне бы хотелось. Периодически залипаю, и не рад этому. Это при том, что моё среднее время с телефоном — где-то 2.5 часа в сутки. У тинейджеров в среднем 8 часов в день. У меня правда ещё есть комп, хотя за компом большую часть времени работаю. Так или иначе, я не рад.
У AI есть потенциал к тому, чтобы поменять парадигму взаимодействия с устройствами. Например, сделать дефолтным голосовой ввод (это быстрее, чем набирать + там есть целый слой эмоций и всего такого, что не передаётся текстом) и/или ввод камерой, когда твой AI-ассистент буквально видит то же, что и ты.
// Заметка на полях: вы уже попробовали поиграть с GPT-4V? Офигенно распознаёт и описывает картинки. Я фоткал просто предметы вокруг на камеру и получал супер-точные классные описания. Пугающе хорошо видит всё, да ещё и распознаёт текст, включая рукописный.
Именно сейчас технологии (мультимодальные LLM, speech recognition & synthesis и т. д.) наконец дошли до того состояния, когда действительно стало возможным сделать AI-ассистента, который по-настоящему всё понимает, видит и может тебе помогать и отвечать на уровне смышлёного живого человека-ассистента. (С этой идеей персонального ассистента, который решит все проблемы с календарём, все носятся с 2010-х, но пока его не получалось сделать. Та же Siri. Но вот теперь наконец получится.)
Это значит, что вообще говоря, есть место для устройств совершенно нового форм-фактора, с которыми можно было бы общаться в основном голосом, и которые могли бы всё видеть и понимать. Дальше можно пофантазировать, какие форм-факторы могли бы сработать:
- очки со встроенной камерой;
- просто наушник — может там тоже можно камеру аккуратно поставить?
- или вот значок на груди или брошка для галстука или что-то такое;
- кулон на шее
и т. д.
// Ещё заметка на полях: вроде Джони Айв и Сэм Альтман что-то замышляют — мне кажется, это тоже может быть устройство вот такого рода.
Какие юзкейсы это устройство сможет закрывать — да практически все те же, что и телефон, плюс наверняка какие-то новые, про которые мы мало что понимаем.
Вот простейший пример юзкейса: мне часто бывает надо на бегу написать кому-то что-то. Но некогда / неудобно открывать телефон и формулировать буквами. Плюс, открывая, я сразу же отвлекаюсь, и иногда вообще забываю, что и кому хотел сказать. А тут просто говоришь устройству: «напиши в школу, что мой ребёнок сегодня пропустит» — и оно находит нужный канал и нужные слова и пишет. Ну кайф же.
Или живой перевод в реальном времени — мне кажется, что лет через 10 учить иностранные языки будут только гики и фанаты ради развлечения и в качестве хобби. Как сейчас музыку на виниле можно слушать. Но для утилитарных целей это никому не будет нужно. У каждого будет просто наушник в ухе, который будет в реальном времени переводить и озвучивать с любого языка на твой, да ещё сохраняя голос и интонации твоего собеседника. С людьми из всех стран мира мы просто будем по-русски говорить и слышать их ответы на русском. Кажется, мы вообще последнее поколение, которому ещё нужно было учить языки и работать над акцентами.
❤104🤔29👍18🔥4👎3😢2
В общем мне очень импонирует, что ребята из Humane исследуют эту тему. Если даже этот их значок не полетит, будут другие устройства. Телефону пора добавить альтернативу.
👍50🔥11👎3🤔3
Сергей выложил запись нашего вчерашнего подкаста.
Интересно поговорили. Показалось, что упомянули слово «интерес» раз 700.
В подкасте рассказываю, что мне интересно сейчас, что бывало, когда терял интерес. А также про формулу-1, мою травму, Эволюцию, преподавание и ещё много про что.
Интересно поговорили. Показалось, что упомянули слово «интерес» раз 700.
В подкасте рассказываю, что мне интересно сейчас, что бывало, когда терял интерес. А также про формулу-1, мою травму, Эволюцию, преподавание и ещё много про что.
❤38🔥13👍5
Я верю, что бесконтрольное развитие искусственного интеллекта потенциально может быть очень опасно. И даже в утопическом сценарии нас ждут изменения таких масштабов и такие стремительные, что человечество к этому точно не готово. Не зря AI сравнивают с ядерным оружием (только вот AI потенциально может быть гораздо опаснее) и не зря чем больше человек разбирается в AI, тем больше он, как правило, насторожен.
До прошедших выходных я верил, что OpenAI — не классическая конвенциональная компания. Я думал, что это скорее исследовательская лаборатория, построенная вокруг идеалистической миссии — «чтобы от AGI выиграло всё человечество» (AGI — это Artificial General Intelligence, то есть AI, который условно может делать всё то же, что и человек). И если главная задача классической компании — создание прибыли и обогащение акционеров, то OpenAI прямо писали, что они прибыль не обещают.
Казалось классной идеей, что компания управляется некоммерческой организацией и некоммерческим же советом директоров. Казалось, что для человечества точно было бы лучше, чтобы AGI был достигнут именно в таких условиях.
Теперь у меня как будто разбились розовые очки (очередные).
Именно эта non-profit оболочка похоже и треснула под давлением внутренних противоречий и всё это вылилось в то, что в пятницу тот самый некоммерческий совет директоров OpenAI супер-внезапно в духе дворцового переворота попытался уволить СЕО Сэма Альтмана (фотка из его твиттера) «в связи с потерей доверия». Настоящие причины потери этого самого доверия при этом до сих пор остаются неизвестными — за прошедшие с пятницы несколько дней их так и не смогли публично сформулировать.
В итоге если кто и потерял доверие, так это совет директоров, а вместе с ним и OpenAI вообще. Мы сейчас строим на их API продукт — и после такого внезапного переворота я уже не могу быть уверен, что API просто не перестанет работать одним днём. Да, переехать на другую модель в принципе возможно, но прецедент крайне печальный всё равно.
Любопытно, что тех-твиттер всю дорогу был переполнен поддержкой и любовью к Сэму, который в этой истории выглядел жертвой. Всплыли сотни неизвестных раньше историй о том, как будучи президентом YC, он помогал стартапам договориться с инвесторами. 700 из 770 сотрудников OpenAI пригрозили уйти, если борд не подаст в отставку. Кажется, никогда раньше не видел такой безграничной любви и поддержки СЕО. Супер-пример, конечно.
Только вот в итоге получается, что капитализм и ачиверство всё равно победили. AGI будет в руках корпорации и вероятно будет использоваться в первую очередь для создания прибыли и обогащения акционеров. Скорее всего акционеров Microsoft, куда Сэм вроде как должен перейти, ну или новой структуры правления OpenAI.
Неужели, действительно, коммерческая структура, созданная с целью зарабатывания денег — это всё ещё лучший доступный человечеству способ идти к прогрессу?
До прошедших выходных я верил, что OpenAI — не классическая конвенциональная компания. Я думал, что это скорее исследовательская лаборатория, построенная вокруг идеалистической миссии — «чтобы от AGI выиграло всё человечество» (AGI — это Artificial General Intelligence, то есть AI, который условно может делать всё то же, что и человек). И если главная задача классической компании — создание прибыли и обогащение акционеров, то OpenAI прямо писали, что они прибыль не обещают.
Казалось классной идеей, что компания управляется некоммерческой организацией и некоммерческим же советом директоров. Казалось, что для человечества точно было бы лучше, чтобы AGI был достигнут именно в таких условиях.
Теперь у меня как будто разбились розовые очки (очередные).
Именно эта non-profit оболочка похоже и треснула под давлением внутренних противоречий и всё это вылилось в то, что в пятницу тот самый некоммерческий совет директоров OpenAI супер-внезапно в духе дворцового переворота попытался уволить СЕО Сэма Альтмана (фотка из его твиттера) «в связи с потерей доверия». Настоящие причины потери этого самого доверия при этом до сих пор остаются неизвестными — за прошедшие с пятницы несколько дней их так и не смогли публично сформулировать.
В итоге если кто и потерял доверие, так это совет директоров, а вместе с ним и OpenAI вообще. Мы сейчас строим на их API продукт — и после такого внезапного переворота я уже не могу быть уверен, что API просто не перестанет работать одним днём. Да, переехать на другую модель в принципе возможно, но прецедент крайне печальный всё равно.
Любопытно, что тех-твиттер всю дорогу был переполнен поддержкой и любовью к Сэму, который в этой истории выглядел жертвой. Всплыли сотни неизвестных раньше историй о том, как будучи президентом YC, он помогал стартапам договориться с инвесторами. 700 из 770 сотрудников OpenAI пригрозили уйти, если борд не подаст в отставку. Кажется, никогда раньше не видел такой безграничной любви и поддержки СЕО. Супер-пример, конечно.
Только вот в итоге получается, что капитализм и ачиверство всё равно победили. AGI будет в руках корпорации и вероятно будет использоваться в первую очередь для создания прибыли и обогащения акционеров. Скорее всего акционеров Microsoft, куда Сэм вроде как должен перейти, ну или новой структуры правления OpenAI.
Неужели, действительно, коммерческая структура, созданная с целью зарабатывания денег — это всё ещё лучший доступный человечеству способ идти к прогрессу?
❤71😢34👍12👎7🤔3
А вы знали, что на айфон можно снимать фотки с длительной экспозицией? Берёте любую фотографию, снятую в режиме Live photo, и переключаете на Long exposure.
Вроде это супер-давно всё доступно, но я как-то умудрился обнаружить только сейчас.
Как и то, что глубину резкости (степень размытия фона по-простому) в портретном режиме можно настроить вручную.
В общем, фотоаппарат в виде отдельного устройства переезжает у меня в категорию «гиковские развлечения для эстетов-фанатов», туда же, где и музыка на виниле.
Вроде это супер-давно всё доступно, но я как-то умудрился обнаружить только сейчас.
Как и то, что глубину резкости (степень размытия фона по-простому) в портретном режиме можно настроить вручную.
В общем, фотоаппарат в виде отдельного устройства переезжает у меня в категорию «гиковские развлечения для эстетов-фанатов», туда же, где и музыка на виниле.
👍84❤21🤯17👎5🤔5
Ошибки, которые мы совершили с нашим агентством
Этой весной мы запустили рекрутинговое агентство hirehire.me. За прошедшие полгода нам удалось вывести некоторое количество классных новых сотрудников в замечательные компании — и в целом у меня немало поводов для гордости и благодарности. Спасибо всем, кто нам доверился, и всем, кто много работал, чтобы это состоялось!
Но сегодня хочется поговорить не об этом, а о тех дровах, которые мы наломали. Наверное, так всегда бывает, когда что-то делаешь в первый раз. Если этот пост поможет кому-то не повторить наших ошибок, буду очень рад.
1. Оставались в майндсете нанимающего менеджера
Сейчас будет очень дурацкая метафора, простите. Но, в общем, мне нужно было становиться «брачным агентом», а я никак не мог вылезти из роли «жениха», в которой проработал предыдущие 10 лет. Теперь более внимательно смотрю за тем, чтобы быть в нейтральной позиции, находить совпадения между кандидатами и вакансиями и вообще помогать отношениям складываться.
2. Нанимали профессиональных рекрутеров
Вначале казалось, что раз у нас рекрутерское агентство, нам нужны рекрутеры. Вроде логично, но быстро выяснилось, что научить классного рекрутера основам дизайна намного сложнее и дольше, чем научить классного дизайнера основам рекрутинга. Теперь все наши «рекрутеры» — это сильные дизайнеры и продакты.
3. Оставляли кандидатов наедине с вакансией
Работая над первыми позициями, мы видели свою роль в том, чтобы представить дизайнеров компании — а дальше оставляли ситуацию на самотёк. Нам тут всё ещё многому надо учиться, но сейчас мы уже более внимательно помогаем людям подготовиться к собеседованиям. В конечном счёте это и компаниям помогает более точно оценивать, подойдёт ли им кандидат.
4. Расслаблялись, когда компания была готова выставить оффер
Тут мы нарушили одну из самых базовых заповедей рекрутеров. Когда появляется классный кандидат, который очень нравится компании и которому очень хочется в компанию, есть большой соблазн расслабиться и переключиться на другие проекты. Увы, офферы срываются. И если в этот момент у тебя нет хорошего потока новых классных кандидатов, то всё приходится начинать с начала, и на этом теряется непростительно много времени. Теперь мы не расслабляемся, пока оффер не будет принят. На самом деле даже и это ничего не гарантирует, но надо же расслабляться хоть когда-то!
5. Представляли новых кандидатов по мере поступления
Раньше мы появлялись и исчезали по мере появления новых интересных кандидатов. Теперь мы делаем так же, но ещё в конце каждой недели присылаем отчёт о состоянии каждой вакансии с точными цифрами, фактами и всеми обновлениями, в том числе о том, что у нас происходило «за кулисами».
Это не все ошибки, конечно же. Одна из наших ценностей — всегда продолжать учиться, так что в чём-то я даже рад — мы выучили все эти уроки и летим дальше.
Пишите, если вы хотели бы нанять дизайнера, продакта, аналитика, исследователя или руководителя любой из продуктовых функций — у нас в нетворке много сильнейших профессионалов.
Этой весной мы запустили рекрутинговое агентство hirehire.me. За прошедшие полгода нам удалось вывести некоторое количество классных новых сотрудников в замечательные компании — и в целом у меня немало поводов для гордости и благодарности. Спасибо всем, кто нам доверился, и всем, кто много работал, чтобы это состоялось!
Но сегодня хочется поговорить не об этом, а о тех дровах, которые мы наломали. Наверное, так всегда бывает, когда что-то делаешь в первый раз. Если этот пост поможет кому-то не повторить наших ошибок, буду очень рад.
1. Оставались в майндсете нанимающего менеджера
Сейчас будет очень дурацкая метафора, простите. Но, в общем, мне нужно было становиться «брачным агентом», а я никак не мог вылезти из роли «жениха», в которой проработал предыдущие 10 лет. Теперь более внимательно смотрю за тем, чтобы быть в нейтральной позиции, находить совпадения между кандидатами и вакансиями и вообще помогать отношениям складываться.
2. Нанимали профессиональных рекрутеров
Вначале казалось, что раз у нас рекрутерское агентство, нам нужны рекрутеры. Вроде логично, но быстро выяснилось, что научить классного рекрутера основам дизайна намного сложнее и дольше, чем научить классного дизайнера основам рекрутинга. Теперь все наши «рекрутеры» — это сильные дизайнеры и продакты.
3. Оставляли кандидатов наедине с вакансией
Работая над первыми позициями, мы видели свою роль в том, чтобы представить дизайнеров компании — а дальше оставляли ситуацию на самотёк. Нам тут всё ещё многому надо учиться, но сейчас мы уже более внимательно помогаем людям подготовиться к собеседованиям. В конечном счёте это и компаниям помогает более точно оценивать, подойдёт ли им кандидат.
4. Расслаблялись, когда компания была готова выставить оффер
Тут мы нарушили одну из самых базовых заповедей рекрутеров. Когда появляется классный кандидат, который очень нравится компании и которому очень хочется в компанию, есть большой соблазн расслабиться и переключиться на другие проекты. Увы, офферы срываются. И если в этот момент у тебя нет хорошего потока новых классных кандидатов, то всё приходится начинать с начала, и на этом теряется непростительно много времени. Теперь мы не расслабляемся, пока оффер не будет принят. На самом деле даже и это ничего не гарантирует, но надо же расслабляться хоть когда-то!
5. Представляли новых кандидатов по мере поступления
Раньше мы появлялись и исчезали по мере появления новых интересных кандидатов. Теперь мы делаем так же, но ещё в конце каждой недели присылаем отчёт о состоянии каждой вакансии с точными цифрами, фактами и всеми обновлениями, в том числе о том, что у нас происходило «за кулисами».
Это не все ошибки, конечно же. Одна из наших ценностей — всегда продолжать учиться, так что в чём-то я даже рад — мы выучили все эти уроки и летим дальше.
Пишите, если вы хотели бы нанять дизайнера, продакта, аналитика, исследователя или руководителя любой из продуктовых функций — у нас в нетворке много сильнейших профессионалов.
❤129👍27
Меня давно беспокоит тема предвзятости в рекрутинге.
В английском есть хорошее слово — bias. Такой общий термин для ситуаций, когда мы настроены необоснованно положительно или отрицательно по отношению к чему-то. Многие такие ситуации мы не осознаём, но они на нас влияют.
Например, бывает, что у человека голос и интонации похожи на кого-то из наших знакомых. И вот мы уже относимся к собеседнику как к этому знакомому, хотя это же совершенно разные люди.
Как быть менее предвзятым? И надо ли вообще к этому стремиться? А что, если человек тебе просто импонирует или, наоборот, отталкивает? С ним же потом работать. А можно ли что-то сделать с предвзятостью рекрутера, если ты кандидат?
В ближайший вторник, 5 декабря в 5 вечера по GMT (это 20:00 по Москве) попробуем в этом всём разобраться в прямом эфире с Jonathon Colman.
Джон — мой бывший коллега, который принёс в Интерком идею явно перечислять свои bias'ы после каждого собеседования. Например: «кандидат раньше работал в Гугле, так что я заранее отношусь к нему хорошо».
Это не такая популярная тема, как, скажем, подготовка к собесам, но именно поэтому мне хочется её подсветить. Если вы собеседуете людей, приносите свои вопросы и наблюдения, мы будем очень рады их обсудить.
Добавить в календарь
В английском есть хорошее слово — bias. Такой общий термин для ситуаций, когда мы настроены необоснованно положительно или отрицательно по отношению к чему-то. Многие такие ситуации мы не осознаём, но они на нас влияют.
Например, бывает, что у человека голос и интонации похожи на кого-то из наших знакомых. И вот мы уже относимся к собеседнику как к этому знакомому, хотя это же совершенно разные люди.
Как быть менее предвзятым? И надо ли вообще к этому стремиться? А что, если человек тебе просто импонирует или, наоборот, отталкивает? С ним же потом работать. А можно ли что-то сделать с предвзятостью рекрутера, если ты кандидат?
В ближайший вторник, 5 декабря в 5 вечера по GMT (это 20:00 по Москве) попробуем в этом всём разобраться в прямом эфире с Jonathon Colman.
Джон — мой бывший коллега, который принёс в Интерком идею явно перечислять свои bias'ы после каждого собеседования. Например: «кандидат раньше работал в Гугле, так что я заранее отношусь к нему хорошо».
Это не такая популярная тема, как, скажем, подготовка к собесам, но именно поэтому мне хочется её подсветить. Если вы собеседуете людей, приносите свои вопросы и наблюдения, мы будем очень рады их обсудить.
Добавить в календарь
🔥86❤35👍21