Forwarded from Записки админа
This media is not supported in your browser
VIEW IN TELEGRAM
🗜 Попался на глаза занятный инструмент для обмена файлами - утилита croc. Просто указываем какой файл хотим отправить, передаём получателю специальный код и он, используя этот код, загружает файл себе.
- Github: https://github.com/schollz/croc
- Подробности: https://schollz.com/tinker/croc6/
- Интервью с автором: https://console.substack.com/p/console-91
#croc #будничное #filetransfer
- Github: https://github.com/schollz/croc
- Подробности: https://schollz.com/tinker/croc6/
- Интервью с автором: https://console.substack.com/p/console-91
#croc #будничное #filetransfer
Forwarded from Библиотека Go-разработчика | Golang
This media is not supported in your browser
VIEW IN TELEGRAM
🧰fx долгое время был полезным инструментом для просмотра JSON-файлов, но за дело взялся SRE из Google Антон Медведев.
👨🔧Антон переписал fx с нуля, добавив новый тематический вид TUI, поиск по регулярным выражениям, нечеткий поиск и поддержку «даже самых массивных JSON-файлов».
🤩Поистине крутой инструмент и отличный пример использования преимуществ Go.
🔗fx 30.0.0
👨🔧Антон переписал fx с нуля, добавив новый тематический вид TUI, поиск по регулярным выражениям, нечеткий поиск и поддержку «даже самых массивных JSON-файлов».
🤩Поистине крутой инструмент и отличный пример использования преимуществ Go.
🔗fx 30.0.0
Forwarded from Технологический Болт Генона
Пятницы псто
Наткнулся на проект прикольный
ESP32 - Sound and Vision - Video Streaming to the ESP32
https://github.com/atomic14/esp32-tv
Можно по WiFi трансляцию устраивать, а можно с SD карты.
Видосы откуда я сделал скриншоты. Во втором подробно рассказывается, как видео преобразовывают, что бы на ESP его рисовать потом.
Streaming Video and Audio over WiFi with the ESP32
https://www.youtube.com/watch?v=G6MROvlLeKE
ESP32 SD Card Video Streaming
https://www.youtube.com/watch?v=dWgjsJtlbpA
Всем хороших выходных! ❤️
Наткнулся на проект прикольный
ESP32 - Sound and Vision - Video Streaming to the ESP32
https://github.com/atomic14/esp32-tv
Можно по WiFi трансляцию устраивать, а можно с SD карты.
The server is pretty simple, it has a few endpoints:
- /channel_info - returns a list of channel lengths in audio samples
- /frame/<int:channel_index>/<int:ms> - returns a JPEG image for the given channel at the given time (in ms)
- /audio/<int:channel_index>/<int:start>/<int:length> - returns 8 bit PCM audio at 16KHz for the given channel starting from the given sample index and for the given length (in samples)
The ESP32 firmware connects to the server and requests the channel info. The video playback is locked to the audio sample playback. The audio is played back using the I2S peripheral and we use that to know how much time has elapsed to request the correct frames. This way the video and audio are always in sync.
You can get around 15 frames per second at 280x240 resolution, the main limitation is WiFi bandwidth and decoding the JPEGs.
Видосы откуда я сделал скриншоты. Во втором подробно рассказывается, как видео преобразовывают, что бы на ESP его рисовать потом.
Streaming Video and Audio over WiFi with the ESP32
https://www.youtube.com/watch?v=G6MROvlLeKE
ESP32 SD Card Video Streaming
https://www.youtube.com/watch?v=dWgjsJtlbpA
Всем хороших выходных! ❤️
Forwarded from partially unsupervised
Понравился LiteLLM - LLM Ops здорового человека. TL;DR: тонкий враппер с общим поверх популярных провайдеров LLM, с кэшированием, обработкой ошибок и бюджетированием.
Вообще я не спец в LLM, но сделал сколько-то прототипов на коленке, и считаю, что правильный воркфлоу - делать proof of concept поверх самого дорогого и предсказуемого на текущий момент API (читай GPT-4), и держать в уме опцию миграции в будущем. Уже в паблике есть и жирная Falcon-180B 🐪, и крутой для своего размера Mistral 7B 🇫🇷, и разные затюненные Llama-2. Лень сетапить инференс - пожалуйста, есть Replicate или Deepinfra.com под ваш форк Лламы, и Antropic через AWS Bedrock; все они обойдутся дешевле, чем GPT.
Если совсем полетит, то на собранном датасете можно будет тюнить свою кастомную модель, если лицензия позволит 🏴☠️. Но скорее всего, YAGNI.
Вообще я не спец в LLM, но сделал сколько-то прототипов на коленке, и считаю, что правильный воркфлоу - делать proof of concept поверх самого дорогого и предсказуемого на текущий момент API (читай GPT-4), и держать в уме опцию миграции в будущем. Уже в паблике есть и жирная Falcon-180B 🐪, и крутой для своего размера Mistral 7B 🇫🇷, и разные затюненные Llama-2. Лень сетапить инференс - пожалуйста, есть Replicate или Deepinfra.com под ваш форк Лламы, и Antropic через AWS Bedrock; все они обойдутся дешевле, чем GPT.
Если совсем полетит, то на собранном датасете можно будет тюнить свою кастомную модель
GitHub
GitHub - BerriAI/litellm: Python SDK, Proxy Server (AI Gateway) to call 100+ LLM APIs in OpenAI (or native) format, with cost tracking…
Python SDK, Proxy Server (AI Gateway) to call 100+ LLM APIs in OpenAI (or native) format, with cost tracking, guardrails, loadbalancing and logging. [Bedrock, Azure, OpenAI, VertexAI, Cohere, Anthr...