BeerPanda. Органично недоразвитый DevOps – Telegram
BeerPanda. Органично недоразвитый DevOps
1.73K subscribers
135 photos
6 videos
10 files
110 links
Download Telegram
Это не может быть DNS!

Если у вас происходит необъяснимая фигня в сети, не поддающаяся логике. Если соединения то проходят, то не проходят. Если соединения идут, но не все.
Есть ровно один главный кандидат - DNS. И два его подручных - BGP и DHCP.

Давайте поговорим о диагностике участия DNS. Я в очередной раз потратил три дня на раскопки и разборки с системным ПО из-за DNS, поэтому будет и мне напоминанием. Все приведенные кейсы реальны.

1. Кейс об отсутствующих DC/DNS

В системе VDI происходит длительный логин, иногда до 30 секунд ожидания. Все бы ничего, но в ней работает от силы 30 пользователей.

Причина - исторически сложилось, что в терминальном брокере были прописаны DNS3, DNS2 (совмещенная роль AD/DNS), но по ходу эксплуатации DNS3 остался резервным и перешли на DNS1, DNS2. И при очередных работах DNS3 просто забыли включить назад. Сменили на брокере DNS на актуальные - логин стал моментальным.

2. Кейс о нестабильном сетевом коннекте.

Сервер приложений то отвечает, то не отвечает. Любые корреляции случайны, включая фазы луны. Обращение в ТП сервера приложений стало просто анекдотичным.
- Пришлите нам tcpdump
- Вот, смотрите - запрос есть, ответа нет
- А вот смотрите у нас в лабе есть запрос и есть ответ.


- Алло, пожарные, у меня 9-этажка напротив горит!
- Да? А у меня напротив такая ж 9-этажка и не горит.


Технологический ландшафт. В конторе две технических службы, одна из которых классические офисные ИТ, а вторая тоже ИТ, но не офисная от слова совсем. Сервер приложений в ведении ИТ2, и у ИТ2 даже свой собственный сетевой сегмент, свои серверы и даже маленький технологический домен с собственными DNS.
На серверах DNS ИТ2 стоит безусловный форвард на DNS ИТ1 всех неизвестных запросов.

Причина. Сервер приложений по какой-то неизвестной причине обязательно делал реверс-DNS запрос по каждому клиенту. Поскольку обращение к серверу приложений в технологической зоне шло с офисной машины администратора, то реверс-запрос сразу форвардился на DNS ИТ1, а там на одном из трех DNS были в наличии не все реверс-зоны.

Потеряно 3 недели и целая куча нервов во взаимных обвинениях между ИТ1, ИТ2 и разработчиком сервера приложений.

3. Кейс о машинах VDI, которые то добавляются, то не добавляются

Администратор создает VDI машины и добавляет их в пул. Но иногда случается ситуация, что машина добавляется на пол-шишечки. Т.е. все всех видят, стабильная сетевая связность, но агент не может соединиться с брокером. При этом сетевая связность машины (на которой агент) с сервером (на котором брокер) есть и безупречная - 25 Gbit один хоп.

Причина. Машины VDI находятся в зоне технологической лаборатории и бывает так, что в DNS остались записи на тот же IP, а часть записей никто не вносил. Судя по всему, снюхивание агента с брокером зависит от DNS и в частности реверс-DNS, поэтому очистка DNS от лишнего и прописывание прямых и обратных адресов сработала.

Итоговая методичка по проверке DNS
1. Нарисуй структуру всех участвующих DNS и кто кому форвардит
2. Разбей DNS на группы, и напиши какие группы отвечают за какие зоны
3. Проверь, что репликация зон настроена на всех DNS из каждой группы
4. Проверь, что на всех DNS есть все зоны, включая обратные зоны
5. Проверь, что нет лишних записей с теми же адресами
6. Проверь, что все адреса внесены в DNS, включая обратные зоны
👍26🔥1121🤣1
На злобу непогоды дня.
+1 история "Ошибки капитального строительства"

"Жила была одна компания, которой досталось здание то ли от ночного клуба, то ли от сауны, то ли от того и другого вместе. Компания не занималась ничем вышеупомянутым, так что пришлось приспосабливать помещения под обычную офисную деятельность.
И был там бассейн, в котором уже давно никто не плескался. Долго ли, коротко ли, но решили этот бассейн использовать под серверную, а прямо в чашу бассейна стойки и поставили.

Водопровод, разумеется, перекрыли. Да вот случилась непогода сильная, лютая. Затопило все ливнёвки и канализацию. И оказалось, что водопровод то в бассейне перекрыли, а вот слив в канализацию нет.
И организовалось стихийное жидкостное охлаждение иммерсионное прямо для всего серверного хозяйства. С понятным результатом."
😁41🤣15🔥14🐳4🫡2💊2💯1
На фоне очередных успехов очередного ЦОДа с питанием
+1 история "Ошибки капитального строительства"

Компания организовала 2 ввода, 2 (!) ДГУ, АВР (автоматический ввод резерва). Все по красоте!

Случается инцидент по питанию - всё ложится, питания нет.

А разгадка одна:

2 ввода, АВР - они только на входе. Раз у нас все хорошо и резервировано, то после АВРа в машзал идет один луч питания с одним автоматом.
Этот автомат и сгорел.
👏29🎉14🤪10🔥4💯2👀2🤔1
Когда шутка ушла в народ и авторство забыто и потерто, но сохранилось в самих шутках. Все началось с перевода первой шутки на русский. Первые 22 - это мои (и нескольких соавторов в чатике) 2012 года. Дальше уже творчество сообщества.

1. Я знаю отличную шутку про UDP, но не факт, что она до вас дойдет.
2. Я знаю отличную шутку про TCP, но если она до вас не дойдет, то я повторю.
3. А кто знает отличную шутку про ARP?
4. А вы слышали шутку про ICMP?
5. Вам еще кто–то рассказывал шутку про STP?
6. Я подожду Антона и расскажу классную шутку про QoS.
7. Про MTU тоже есть кла.
8. <шутка><смешная/><про>XML.
9. А про FSMO роли шутить могут не более пяти человек.
10. Подождите все, я расскажу шутку о сети типа «шина».
11. Я бы рассказал отличную шутку про Token Ring, но сейчас не моя очередь.
12. Стой–стой, послушай сначала шутку о прерываниях.
13. Помню времена, когда шутка про модем пшшшшшшш…
14. Только что, специально для сообщества пришла шутка про мультикаст.
15. Жаль, что шутка про Fault Tolerance не может состоять больше, чем из одного слова.
16. Настало время рассказать шутку про NTP.
17. Я сейчас расскажу отличную шутку про VPN, но ее поймет только один.
18. К шутке про SCTP вначале должны все подготовиться.
19. Из–за одного, кто зевнул, придётся заново рассказывать шутку про frame relay в топологии point–to–multipoint.
20. А шутки про HDLC обычно не понимают те, кто знает другие шутки про HDLC.
21. Про DWDM шутят сразу несколькими голосами.
22. Шутка про Е3 — это 30 одинаковых шуток про Е1 и еще две шутки, понятных только тем, кто в теме.
23. Лучшее в шутках про проприетарные протоколы это УДАЛЕНО.
24. Единственная проблема в шутках про Token Ring в том, что если кто-то начнёт рассказывать шутку пока говорите вы, обе шутки обрываются.
25. Все любят шутки про MitM. Ну, кроме Алисы и Боба, все.
26. идти Самое про BitTorrent — они могут порядке. в шутках лучшее в любом
27. Я бы рассказал шутку про CSRF, если бы ты САМ только что этого не сделал.
28. IGMP шутка; пожалуйста, передай дальше.
29. Нет… Нет ничего… Нет ничего забавного… Нет ничего забавного в шутках… Нет ничего забавного в шутках про определение MTU.
30. PPP шутки всегда рассказываются только между двумя людьми.
31. Шутки шутки про про RAID RAID почти почти всегда всегда избыточны избыточны.
32. Фрагментированные шутки…
33. … всегда рассказываются…
34. … по кусочкам.
35. Вы уже слышали шутку про Jumbo фреймы? Она о–очень длинная.
36. Самое клёвое в шутках про rsync, что вам её рассказывают только если вы не слышали её до этого.
37. Проблема с IPv6 состоит в том, что их трудно вспомнить.
38. DHCP шутки смешны, только если их рассказывает один человек.
39. Жаль, что никто не помнит шутки про IPX.
40. У кого есть кабель? Есть смешная шутка про RS–232 и полусмешная про RS–485.
41. Я сейчас всем расскажу шутку про бродкаст.
42. У меня есть примерно 450 000 шуток про BGP.
43. У кого есть пароли, приходите за шутками про RADIUS.
44. Шутку про 127.0.0.1 каждый может пошутить себе сам.
45. А что, шутки про IPv4 уже закончились?
46. Шутки про RFC1918 можно рассказывать только своим.
47. Шутки про IPv6 плохи тем, что их мало кому можно рассказать.
48. Шутки про SSH–1 и SSH–2 несовместимы между собой.
49. Про Schema Master шутит только один в этом лесу.
49. Шутки про MAC–адрес могут не дойти до тёзок.
50. DNS–сервер не понял шутку про DDoS и ему её стали пересказывать сто тысяч раз в секунду.
51. В шутках про IPSec надо говорить, кому их рассказываешь.
52. И ГОСТ, и ISO согласны, что есть 7 уровней рассказывания шуток.
52.1 Министерство обороны США понимает только четыре уровня шуток.
53. Шутки про шутки про шутки часто звучат в туннелях.
54. Шутки про 10/100/1000BASE–T вряд ли услышат с расстояния больше 100 метров.
55. Шутки про Euclid недостаточно хорошо изучены, чтобы быть понятными.
56. Шутки про Keter █████ ███ ███████.
57. Шутки про Thaumiel сами относятся к классу Thaumiel
🔥24😁12👍105😐1
Из древности ИТ в наши дни. 1

Я расскажу вам сегодня краткую историю. Историю эволюции вычислительной техники и появления удаленных рабочих мест с древнейших времен и до наших дней.

Главное, что можно вынести из истории ИТ — это…

Разумеется то, что ИТ развивается по спирали. Одни и те же решения и концепции, которые были отброшены десятки лет назад, обретают новый смысл и успешно начинают работать в новых условиях, при новых задачах и новых мощностях. В этом ИТ ничем не отличается от любой другой области человеческого знания и истории Земли в целом.

“Я думаю, в мире есть рынок примерно для пяти компьютеров”, глава IBM Томас Уотсон в 1943.

Ранняя компьютерная техника была большой. Нет, неправильно, ранняя техника была чудовищной, циклопической. Полностью вычислительная машина занимала площадь, сравнимую со спортивным залом, а стоила совершенно нереальных денег. В качестве примера комплектующих можно привести модуль оперативной памяти на ферритовых кольцах (1964).

Этот модуль имеет размер 11 см * 11 см, и емкость в 512 байт (4096 бит). Шкаф, полностью набитый этими модулями, едва ли имел емкость древней уже на сегодня дискеты 3,5” (1.44 МБ = 2950 модулей), при этом потреблял весьма ощутимую электрическую мощность и грелся как паровоз.

Именно с огромными размерами связано и англоязычное название отладки программного кода — “debugging”. Одна из первых в истории программистов, Грейс Хоппер (да-да, женщина), офицер военно-морских сил, сделала в 1945 году запись в журнале действий после расследования неполадки с программой.

Поскольку moth (мотылек) в общем случае это bug (насекомое), все дальнейшие проблемы и действия по решению персонал докладывал начальству как “debugging” (буквально обезжучивание), то за сбоем программы и ошибкой в коде намертво закрепилось название баг, а отладка стала дебагом.

По мере развития электроники и полупроводниковой электроники в особенности, физические размеры машин стали уменьшаться, а вычислительная мощность, напротив, расти. Но даже в этом случае нельзя было поставить каждому по компьютеру персонально.

“Нет никаких причин, чтобы кто-то захотел держать компьютер у себя дома” — Кен Олсен, основатель DEC, 1977.


В 70е появляется термин мини-компьютер. Помню, что когда впервые прочитал этот термин много лет назад, мне представилось что-то типа нетбука, практически наладонник. Я не мог быть дальше от истины.

Мини — он только по сравнению с огромными машинными залами, но это все еще несколько шкафов с оборудованием ценой в сотни тысяч и миллионы долларов. Однако вычислительная мощность уже возросла настолько, что не всегда была загружена на 100%, и при этом компьютеры начали быть доступны студентам и преподавателям университетов.

И тут пришел ОН! Терминал.

Немногие задумываются над латинскими корнями в английском языке, но именно он принес нам удаленный доступ, как мы знаем его сейчас. Terminus (лат) — конец, граница, цель. Целью Терминатора Т800 была окончить жизнь Джона Коннора. Так же мы знаем, что транспортные станции, на которых производится посадка-высадка пассажиров или погрузка-разгрузка грузов, называются терминалами — конечными целями маршрутов.

Соответственно появилась концепция терминального доступа, и вы можете увидеть самый известный в мире терминал, до сих пор живущий в наших сердцах.

DEC VT100 называется терминалом, поскольку оканчивает информационную линию. Имеет фактически нулевую вычислительную мощность, и его единственная задача — отобразить полученную с большой машины информацию, и передать на машину ввод с клавиатуры. И хотя VT100 физически давно умерли, мы все еще пользуемся ими в полной мере.
👍26🔥51
Из древности ИТ в наши дни. 2

“Наши дни” я бы стал отсчитывать с начала 80-х, с момента появления первых доступных широкому кругу процессоров со сколько нибудь значимой вычислительной мощью. Традиционно считается, что главным процессором эпохи стал Intel 8088 (семейство x86) как родоначальник победившей архитектуры. В чем же принципиальная разница с концепцией 70х?

Появляется тенденция переноса обработки информации из центра на периферию. Далеко не все задачи требуют безумных мощностей мейнфрейма или даже мини-компьютера. Intel не стоит на месте, в 90х выпускает семейство Pentium. Эти процессоры уже способны на многое, не только написать письмо — но и мультимедиа, и работать с небольшими базами данных. Фактически для малого бизнеса полностью отпадает необходимость в серверах — все можно выполнять на периферии, на клиентских машинах. С каждым годом процессоры все мощнее, а разница между серверами и персоналками все меньше и меньше.

Если сравнивать современные клиентские процессоры “смешной” для администраторов тяжелых серверов в 90е компании Intel с суперкомпьютерами прошлого, то и вовсе становится слегка не по себе.

Давайте взглянем на старичка, всего-то практически моего ровесника. Cray X-MP/24 1984 года.

Эта машина входила в топ суперкомпьютеров 1984, имея 2 процессора по 105 MHz с пиковой вычислительной мощностью 400 MFlops (миллионов операций с плавающей точкой). Конкретно та машина, что изображена на фото, стояла в лаборатории криптографии АНБ США, и занималась взломом шифров. Если перевести 15 млн долларов 1984 года в доллары 2020, то стоимость составит 37,4 млн, или 93 500 долларов / MFlops.


В той машине, на которой я пишу эти строки (текст 2020 года), стоит процессор Core i5-7400 2017 года, не новый, и даже в год своего выхода самый младший 4-ядерным из всех десктопных процессоров среднего уровня. От 19 до 47 GFlops по разным тестам при цене 16 тыс руб за процессор. Если собрать машинку целиком, то можно принять ее стоимость за 750 долларов (по ценам и курсу на 1 марта 2020).

В конечном итоге получаем превосходство вполне среднего десктопного процессора наших дней в 50-120 раз над суперкомпьютером из топ10 вполне обозримого прошлого, а падение удельной стоимости MFlops становится совсем чудовищными 93500 / 25 = 3700 раз.

Зачем нам все еще нужны серверы и централизация вычислений при подобных мощностях на периферии — решительно непонятно!

Бездисковые станции

Первым сигналом, что вынос вычислений на периферию не будет окончательным, стало появление технологии бездисковых рабочих станций. При значительном распределении рабочих станций по территории предприятия, и в особенности в загрязненных помещениях, очень жестко встает вопрос управления и поддержки этих станций.

Появляется понятие “корридорное время” — те процент времени, что сотрудник техподдержки находится в коридоре, по дороге к сотруднику с проблемой. Это время оплачиваемое, но совершенно непродуктивное. Далеко не последнюю роль, и в особенности в загрязненных помещениях, составляли выходы из строя жестких дисков. Давайте уберем из рабочей станции диск, а все остальное сделаем по сети, в том числе загрузку. Сетевой адаптер получает помимо адреса от DHCP сервера так же дополнительную информацию — адрес сервера TFTP (упрощенный файловый сервис) и имя загрузочного образа, загружает его в оперативную память и стартует машину.

Помимо меньшего количество поломок и снижения коридорного времени, машину теперь можно не отлаживать на месте, а просто принести новую, и забрать старую на диагностику на оборудованное рабочее место. Но и это еще не все!

Бездисковая станция становится значительно безопаснее — если вдруг кто-то вломится в помещение и вынесет все компьютеры, это лишь потери оборудования. Никаких данных не хранится на бездисковых станциях.

Запомним этот момент, ИБ начинает играть все большую роль после “беспечного детства” информационных технологий. А в ИТ все сильнее вторгаются страшные и важные 3 буквы — GRC (Governance, Risk, Compliance), или по-русски «Управляемость, Риск, Соответствие».
👍189🔥5
Из древности ИТ в наши дни. 3

Терминальные серверы

Повсеместное распространение все более и более мощных персоналок на периферии значительно опережало развитие сетей общего доступа. Классические для 90-начала 00 клиент-серверные приложения не очень хорошо работали по тонкому каналу, если обмен данными составлял сколько нибудь значимые значения. Особенно это было тяжело для удаленных офисов, подключавшихся по модему и телефонной линии, которая к тому же периодически подвисала или обрывалась. И…

Спираль сделала виток и оказалась снова в терминальном режиме с концепцией терминальных серверов.

Фактически мы вернулись к 70м с их нулевыми клиентами и централизацией вычислительной мощности. Очень быстро стало очевидно, что помимо чисто экономической подоплеки с каналами терминальный доступ дает огромные возможности по организации безопасного доступа снаружи, в том числе работы из дома для сотрудников, или крайне ограниченного и подконтрольного доступа контракторам из недоверенных сетей и недоверенных/неконтролируемых устройств.

Однако терминальные серверы при всех их плюсах и прогрессивности, обладали также и рядом минусов — низкая гибкость, проблема шумного соседа, строго серверная Windows и тд.

Рождение прото VDI

Правда в начале-середине 00х уже вовсю выходила на сцену промышленная виртуализация x86 платформы. И кто-то озвучил попросту витавшую в воздухе идею: а давайте вместо централизации всех клиентов на серверных терминальных фермах дадим каждому его персональную ВМ с клиентской Windows и даже администраторским доступом?

Отказ от толстых клиентов

Параллельно с виртуализацией сессий и ОС развивался подход, связанный с облегчением функции клиента на уровне приложения.

Логика за этим была довольно простая, ведь персональные ноутбуки были все еще далеко не у всех, интернет точно так же был не у всех, и многие могли подключиться только из интернет кафе с очень ограниченными, мягко говоря, правами. Фактически, все что можно было запустить — это браузер. Браузер стал непременным атрибутом ОС, интернет прочно заходил в нашу жизнь.

Иными словами, параллельно шел тренд на перенос логики с клиента в центр в виде веб-приложений, для доступа к которым нужен только самый простой клиент, интернет и браузер.
И мы оказались не просто там же, с чего начинали — с нулевых клиентов и центральных серверов. Мы пришли туда несколькими независимыми путями.
🔥11👍1
Когда слышал про NUMA, но не понял как все это работает.

Встретил вот такую интересную статью, в которой предлагают бороться с NUMA через CPU Affinity

Краткий комментарий от меня:

1. Задача поддерживать NUMA locality - задача гипервизора
2. Чем больше инфраструктура - тем меньше в нее надо лезть руками
3. При задании CPU affinity слетает миграция и балансировка
4. CPU affinity не имеет смысла, если гипервизор память выделил НЕ на на том же узле

Ну и отдельные перлышки.

В рабочих окружениях мы обычно имеем дело с серверами на 32 и больше ядер.


NUMA массово в x86 появилась во времена Xeon 55xx Nehalem, 2008 год. От 2 до 8 ядер на процессор.

А для работы с большими объёмами оперативки - Non-Uniform Memory Access (NUMA).


Для сокращения пути ядро<->память, а не для большого объема. Объем-то как раз не проблема нарастить, только все упрется в пропускную способность и задержки.

Но виртуальные машины не имеют информации о том, как устроены NUMA-узлы и ядра на хосте


Поэтому размещением машин и локальностью NUMA занимается гипервизор. В этом весь смысл виртуализации.

Но в реальном продакшене


В реальном продакшене количество узлов в кластере может составлять десятки хостов. ВМ постоянно создаются, включаются, выключаются, перемещаются (живая миграции). Как результат идет фрагментация памяти. А управлять процессор должен планировщик процессора и менеджер памяти гипервизора.
Использования CPU affinity для борьбы с NUMA - уровень "чтобы быстрее ползать надо отрубить ноги".
😁14👍4🤣3❤‍🔥1
Из древности ИТ в наши дни. 4

Virtual Desktop Infrastructure

Брокер


В 2007 лидер рынка промышленной виртуализации, VMware, выпустила первую версию своего продукта VDM (Virtual Desktop Manager), ставшего фактически первым на только рождающемся рынке виртуальных десктопов. Разумеется долго ждать ответа от лидера терминальных серверов Citrix не пришлось и в 2008 одновоременно с покупкой XenSource (XenServer) появляется XenDesktop. Безусловно были и другие вендоры со своими предложениями, но не будем слишком углубляться в историю, отходя от концепции.

И до сих пор концепция сохраняется. Ключевой компонент VDI — это брокер соединений.
Именно это сердце инфраструктуры виртуальных десктопов.

Брокер отвечает за самые главные процессы работы VDI:

* Определяет доступные для подключившегося клиента ресурсы (машины/сессии);
* Балансирует при необходимости клиентов по пулам машин/сессий;
* Пробрасывает клиента на выбранный ресурс.

Сегодня клиентом (терминалом) для VDI может быть фактически вообще все, что имеет экран — ноутбук, смартфон, планшет, киоск, тонкий или нулевой клиент. А ответной частью, той самой что исполняет продуктивную нагрузку — сессия терминального сервера, физическая машина, виртуальная машина. Современные зрелые продукты VDI тесно интегрированы с виртуальной инфраструктурой и самостоятельно управляют ей в автоматическом режиме, развертывая или, наборот, удаляя уже ненужные виртуальные машины.

Немного в стороне, но для некоторых клиентов крайне важной технологией VDI, стоит поддержка аппаратного ускорения 3D графики для работы проектировщиков или дизайнеров.

Протокол

Второй чрезвычайно важной частью зрелого решения VDI является протокол доступа к виртуальным ресурсам. Если речь идет о работе внутри корпоративной локальной сети с отличной надежной сетью 1 Gbps до рабочего места и задержкой в 1 ms, то можно брать фактически любой и вообще не думать.

Думать нужно когда подключение идет по неконтролируемой сети, а качество этой сети может совершенно любым, вплоть до скоростей в десятки килобит и непредсказуемыми задержками. Те как раз для организации настоящей удаленной работы, с дач, из дома, из аэропортов и закусочных.

Терминальные серверы vs клиентские ВМ

При появлении VDI казалось, что пора прощаться с терминальными серверами. Зачем они нужны, если у каждого есть своя персональная ВМ?

Однако с точки зрения чистой экономики оказалось, что для типовых массовых рабочих мест, одинаковых до тошноты — пока нет ничего эффективнее терминальных серверов по соотношению цена / сессия. При всех своих достоинствах подход “1 пользователь = 1 ВМ” расходует значительно больше ресурсов на виртуальное железо и полноценную ОС, что ухудшает экономику на типовых рабочих местах.

В случае же рабочих мест топ-менеджеров, нестандартных и нагруженных рабочих мест, необходимости иметь высокие права (вплоть до администратора), преимущество имеет выделенная ВМ на пользователя. В рамках этой ВМ можно выделять ресурсы индивидуально, выдавать права любого уровня, и балансировать ВМ между хостами виртуализации при высокой нагрузке.

VDI и экономика

Годами я слышу один и тот же вопрос — а как, VDI дешевле чем просто ноутбуки всем раздать? И годами мне приходится отвечать ровно одно и то же: в случае с обычными офисными сотрудниками VDI не дешевле, если считать чистые затраты на обеспечение оборудованием. Как ни крути, ноутбуки дешевеют, а вот серверы, СХД и системный софт стоят довольно ощутимых денег. Если вам пришла пора обновлять парк и вы думаете сэкономить за счет VDI — нет, не сэкономите.

Я выше приводил страшные три буквы GRC — так вот, VDI это про GRC. Это про управление рисками, это про безопасность и удобство контролируемого доступа к данным. И это все стоит обычно довольно немалых денег для внедрения на куче разнородной техники. При помощи VDI контроль упрощается, безопасность повышается, а волосы становятся мягкими и шелковистыми.
🔥138❤‍🔥4👍4
"Инженерная инфраструктура ЦОД должна обеспечивать электроснабжение и охлаждение стоек со средней плотностью мощности не менее 11 кВт на стойку и с возможностью обеспечения функционирования до 5 из 55 стоек энергопотреблением и тепловыделением не менее 21 кВт, прописано в требованиях."


Снижая зависимость от облачных провайдеров, «Лемана Про» подыскивает новый ЦОД (https://www.tadviser.ru/a/898759)

Ровно неделю назад аналитики от ИКС консалтинга и профи рынка коммерческих ЦОДов на DCForum рассказывали про среднюю корпоративную стойку в 5.5-7 кВт.

РТК-ЦОД буквально недавно запустил очередные пару тысяч стоек по 5.5-7 кВт.

Напомню, что еще в 2008 году HPE BladeSystem C7000 вполне могла съесть в одно лицо 8 кВт на 10U.
В 2003 году HP DL 360 gen3 имел 2 БП х 350 Вт на 1U. В 2009 - 2 x 700, в 2025 - 2 x 2200 Вт.

А стойки как были, так и остались по 5.5 кВт.

Итого в среднюю "корпоративную" стойку сейчас еле-еле войдет 3 плотных 1U сервера (3U) ИЛИ пара 400Г коммутаторов (2 x 3500) общей высотой 4U.
15 кВт сервер под AI с 8 горячими GPU придется запитывать сразу с трех стоек, что дает нам те же фантастические цифры утилизации в 3.5U на стойку, или 8%.

Поэтому повторю свой вопрос с DCForum. Уважаемые ЦОДы, вы в каком году живете, все еще в 2005?

Пожелаем ЛеманаПро успеха в сложном деле поиска локации из 2025 года.
🔥21💯6👍2
🫡 Закончилась эпоха модемного доступа через телефонные линии

Вчера компания AOL окончательно отключила модемный доступ через телефонные линии. В конце 90-х сервисом пользовались 30 млн человек.
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡102👀21👻1
Время прохладных ИИ историй

Директор по ИТ инфраструктуре рассказывает. Взяли, говорит, у нас ИИ евангелиста с полгода назад. Ну тот шуршит, что то делает. Я и спрашиваю:
- Планируется ли размещение ИИ оборудования у нас в онпреме.
- Да, но не в этом году, а в следующем.
- У меня для тебя с таким горизонтом планирования есть аж 80 кВт.
- А что это?
😁55🔥103😱31
Сводная таблица с российскими решениями по виртуализации.

Создана силами сообщества RusVirtUG при участии вендоров, но лишь при участии.
Не является рекламой

https://docs.google.com/spreadsheets/d/1fk8Hin2J31RIwnbPukPPKvrMJnu5hCq2wF6hjL8hiVQ/edit?usp=sharing
🔥11👍8👏1
Forwarded from IT-link Осень 2025
🖥 Highload — территория для тех, кто не боится слова “нагрузка” и живёт на пределе возможностей системы.

Это направление соберёт классных архитекторов, инженеров и практиков. Представляем спикеров секции «Высокие нагрузки»:

Антон Жбанков, Архитектор вычислительной инфраструктуры, независимый эксперт
Тема: «Хочешь настоящий ИТ-хайлоад по хардкору?»

Вадим Подольный, руководитель комитета промышленной автоматизации АРПП «Отечественный софт», член совета клуба топ-менеджеров 4CIO, автор книги «Архитектура Высоконагруженных Систем»
Тема: «Как НЕ надо строить хайлоад»

Евгений Парфёнов, enterprise-архитектор
Тема: «Как НЕ надо работать с облаком. Быль, полная слёз»

Игорь Гальцев, технический директор облачных разработок Softline
Тема: «Highload расходы. ФинОпс — методика оптимизации»


До ⚡️⚡️⚡️⚡️ осталось 2 дня! Готовы к нетворкингу и экспертным выступлениям?

📌 8 ноября, г. Чебоксары
Театр юного зрителя имени Михаила Сеспеля

🟢Больше про IT-link Осень 2025
🟢Зарегистрироваться
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤‍🔥1🤔1
Media is too big
VIEW IN TELEGRAM
Евгений Парфенов. Как НЕ надо работать с облаком. Быль полная слез.
🔥6
Media is too big
VIEW IN TELEGRAM
Вадим Подольный. Как НЕ нужно делать хайлоад.
🔥53
Media is too big
VIEW IN TELEGRAM
Антон Жбанков. Хочешь настоящий хайлоад по Хардкору?
👍132🔥2
Подъехала статистика по источникам данных для LLM AI.

40% - это реддит, форум с мнениями анонимусов.
26% вики - но если хоть сколько нибудь про технику можно считать плюс-минус нормальным, то по любым политическим вопросам или неоднозначным историческим там ничуть не лучше, чем на среднем форуме.
20% фейсбук - просто без комментариев.

К вопросу о доверенности мнения LLM. и их использовании в работе как источника информации.

Upd: уточнили, что речь не про источники данных для обучения нейросетей. Речь про ссылки, используемые в ответах.
🤣224👎3