Разразившийся скандал вокруг Signal в очередной раз демонстрирует серьезные проблемы с кибергигиеной у людей в высших эшелонах власти США при обсуждении суперконфиденциальных вопросов.
На этот раз в центре внимания оказались ключевые фигуры администрации Дональда Трампа, которые решили обсудить военную операцию и
По словам журналиста, он подумал, что это всё розыгрыш, поскольку идея о том, что высокопоставленные чиновники обсуждают секретные вопросы через Signal, казалась ему абсурдной. Согласно опубликованным скринам переписки из чата, участники обменивались подробностями будущей операции и даже отправляли 👊🇺🇸🔥огонёчки в виде эмодзи друг другу. Журналист, радуясь как ребёнок госпоже удаче, начал все 📸фиксировать. Позже The Atlantic выложили скрины переписки.
1️⃣ По одной из версий, его номер мог быть записан в 📱контактах одного из подчинённых Майка Уолца. Журналиста добавили по ошибке. Помощник, по своей невнимательности, когда организовывал группу для начальства, с дуру добавил журналиста в групповой чат для оперативного обсуждения вопросов. Гипотетически он админил от аккаунта Уолтца при создании группы, поэтому и отобразилось добавление от самого Уолтца.
2️⃣ По другой версии, сам Уолтц ошибочно добавил журналиста. Возможно торопился или случайно.
3️⃣ Обманом или через уязвимость журналист добавился в чат (маловероятно).
* На выложенных скринах видно, как в "Houthi PC small group" добавляется журналист по приглашению Уолтца —
Michael Waltz added you to the group.🤔 Уолтц отрицает:
"Я могу сказать со стопроцентной уверенностью, что я не знаком с этим парнем. Я знаю о его ужасной репутации. Среди журналистов он на самом дне", - заверил Уолтц в интервью телеканалу Fox News, говоря о Голдберге. "Я не пишу ему сообщений. Он попал в мой телефон. И мы выясним, как это произошло", - добавил помощник президента США Дональда Трампа.
"Конечно, я не видел, что этот неудачник в группе", - добавил Уолтц, имея в виду Голдберга. - Выглядело так, что это кто-то другой. Сделал ли он это намеренно, произошло ли это каким-то иным техническим путем? Мы пытаемся это выяснить", - подчеркнул он.
Пользователи в
The Atlantic признал: это НЕ были «военные планы». Вся эта история — очередной вымысел, написанный ненавистником Трампа, который хорошо известен своей склонностью к сенсациям.
— заявила пресс-секретарь Белого дома Кэролайн Левитт.
Глава ЦРУ Джон Рэтклифф и директор нацразведки Тулси Габбард настаивают на том, что ничего секретного в группе не обсуждали. Кто прав, а кто виноват? — на этот вопрос должно будет ответить следствие.
Как пишет Defensescoop, согласно действующему меморандуму Минобороны, мессенджеры iMessage, Signal и WhatsApp не могут использоваться для передачи служебной информации. Но многие ведомства, как это часто бывает, пренебрегают правилами, ибо лень.
В кулуарах чиновники стали обсуждать создание единой
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
11
Глава
Если спросить пресловутый
Совокупность этих изображений и символов позволяет предположить, что человек, носящий эти татуировки, идентифицирует себя с воинской культурой. Выражает явную приверженность консервативным, патриотическим и христианским ценностям, а также подчёркивает готовность к противостоянию религиозным, культурным или идеологическим противникам. Фраза «Deus Vult» (лат. «Такова воля Божья» или буквально «Бог хочет этого») напрямую связана с эпохой крестовых походов и является одним из ключевых лозунгов крестоносцев XI–XIII веков.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3
🇺🇸 Национальный архив США начал публиковать рассекреченные документы по делу об убийстве Кеннеди.
👀 Попробуем в журналистику.
Допустим, что мы хотим ознакомиться с документами, которые лежат в открытом доступе.
Заходим на сайт. И видим => там больше📄 2000 pdf файлов.
🎩 Так, что делать? Нажимать по одному файлу и скачивать? Слишком долго. А есть ли простое решение скачать всё и сразу?
В таких случаях вспоминается чудесная🐍 Python-библиотека под названием BeautifulSoup. Не раз выручала, когда нужно было парсить новости, а RSS не цепляется.
😁 В терминале делал так:
Создаём простенький файл🐍
сохраняем. Простой вариант скачивания всех файлов по одному.
Далее запускаем в терминале:
🔎 Выкачиваем все PDF.
И есть ещё гораздо быстрый способ скачивания в несколько потоков. Сюда код не поместится, поэтому выложу🐍 отдельным файлом. Рекомендую использовать именно его.
🧠 С удивлением обнаружил, что 26.03 первое место в lmarena в категории кодинг взял 🌐 Gemini-2.5-Pro. Сложно сказать насколько он хорош. В кодинге неплох Claude Sonnet 3.7. Если немного поиграться в prompt engineering, то новостные парсеры для сайтов пишет за пару минут. Удивительно, но 28.03 в категории кодинг 1 место занял 👩💻 ChatGPT-4o-latest после свежих обнов.
🖥 Потом можно объединить все файлы (+2000) и сделать 20-30 pdf файлов через какой-нибудь 📄 Acrobat в виртуалке. Распознавание текста с помощью OCR + сжатие. Закидываем в ИИ-модельки. Читаем, анализируем, при необходимости задаём ИИ вопросы.
*Рекомендуется проводить тесты в🗳 виртуальной среде.
✋ @Russian_OSINT
Допустим, что мы хотим ознакомиться с документами, которые лежат в открытом доступе.
Заходим на сайт. И видим => там больше
В таких случаях вспоминается чудесная
python3 -m venv myenv
source myenv/bin/activate
pip install beautifulsoup4 requests
Создаём простенький файл
download_jfk_pdfs.py на питоне и вставляем:import requests
from bs4 import BeautifulSoup
import os
import time
import urllib.parse
def download_pdfs(url, output_dir):
if not os.path.exists(output_dir):
os.makedirs(output_dir)
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
pdf_links = []
for link in soup.find_all('a'):
href = link.get('href')
if href and href.endswith('.pdf'):
pdf_links.append(href)
print(f"Найдено {len(pdf_links)} PDF-файлов")
for i, pdf_link in enumerate(pdf_links):
if not pdf_link.startswith('http'):
if pdf_link.startswith('/'):
base_url = urllib.parse.urlparse(url).netloc
pdf_link = f"https://{base_url}{pdf_link}"
else:
pdf_link = urllib.parse.urljoin(url, pdf_link)
filename = os.path.join(output_dir, os.path.basename(pdf_link))
print(f"Загрузка {i+1}/{len(pdf_links)}: {pdf_link}")
try:
pdf_response = requests.get(pdf_link)
with open(filename, 'wb') as f:
f.write(pdf_response.content)
print(f"Сохранено в {filename}")
time.sleep(2) # задержка между запросами
except Exception as e:
print(f"Ошибка при загрузке {pdf_link}: {e}")
if __name__ == "__main__":
download_pdfs("https://www.archives.gov/research/jfk/release-2025", "jfk_pdfs")
сохраняем. Простой вариант скачивания всех файлов по одному.
Далее запускаем в терминале:
python3 download_jfk_pdfs.py
И есть ещё гораздо быстрый способ скачивания в несколько потоков. Сюда код не поместится, поэтому выложу
*Рекомендуется проводить тесты в
Please open Telegram to view this post
VIEW IN TELEGRAM
🍿Невероятное подвезли на стероидах в 👩💻 последних обновах. Теперь начинающие реверс-инженеры будут дуреть с этой прикормки.
⚙️ ИИ-инструментарий заметно расширился. Прямо в чате можно проводить полноценный анализ файлов и вредоносного ПО. Из интересного:
✅ Декомпиляция PE-файлов (EXE, DLL) с разбором всех секций: .text, .rsrc, .reloc, .data, включая скрытые и нестандартные. Доступен анализ структуры и ассемблера, но без перевода в C-код как в Ghidra/IDA.
✅ Эвристический и сигнатурный анализ с распознаванием встроенных троянов, шелл-кодов, загрузчиков и скрытых вызовов PowerShell или WScript.
✅ Анализ time bombs и логики отложенного выполнения — конструкции вроде sleep 300.
✅ Поддержка анализа архивов и обёрток, включая извлечение содержимого .cab, .zip, .7z, .iso, если вредонос вложен в несколько уровней упаковки.
✅ Выявление нестандартных языков и рантаймов — AutoIt, Delphi, VB6, .NET, Python в EXE (py2exe/pyinstaller) с последующим разворачиванием до исходников.
✅ Выявление вредоносных вызовов API, инъекций, методов обхода защиты, self-unpacking логики и антиотладочных техник.
✅ Поведенческий анализ без запуска файла: отслеживание сетевой, файловой и реестровой активности, временных скриптов и скрытых процессов.
✅ Генерация детального отчёта: уровень риска, оффсеты, хэши, IOC, используемые API, методы обфускации и оценка сложности реализации.
✅ Поддержка форматов .exe, .dll, .bat, .ps1, .vbs и других скриптов — без необходимости их запуска.
✅ Подключение к Ghidra через GhidraMCP: возможность использовать GPT или Claude прямо в интерфейсе для генерации комментариев, описаний функций, автоматического реверса и навигации по бинарю.
✅ Поддержка IDA Pro: пояснение функций, автоанализ кода, работа со строками, сигнатурами и IDAPython-скриптами.
✅ Анализ патчеров: определение изменённых инструкций, NOP-инъекций, вмешательства в секции .text, .rdata и ключевые функции.
✅ Возможность очистить патчер: удалить вредоносную логику, оставить только безопасные модификации, пересобрать и выдать финальный очищенный файл с пояснениями.
Отдельно стоит отметить, что ИИ дали возможность глубоко анализировать любые патчеры и кряки с торрентов, выявляя бэкдоры, майнеры, инфостилеры и руткиты. Новичок без специальных знаний может попытаться самостоятельно интуитивно через промпты разобраться с файлом и выявить👀 🦠 вредоносную/аномальную активность, а также для себя лично оценить, насколько безопасен файл перед запуском.
👆Ещё рекомендую поиграться в свежий https://github.com/LaurieWired/GhidraMCP (MCP Server для Ghidra) от lauriewired через🤖 Сlaude. Тяжеловато для тех, кто пробует с нуля (сам такой), но интересно. Тут подробности. Реверсерам должно понравиться.
*Рекомендуется проводить тесты в🗳 виртуальной среде.
✋ @Russian_OSINT
Отдельно стоит отметить, что ИИ дали возможность глубоко анализировать любые патчеры и кряки с торрентов, выявляя бэкдоры, майнеры, инфостилеры и руткиты. Новичок без специальных знаний может попытаться самостоятельно интуитивно через промпты разобраться с файлом и выявить
👆Ещё рекомендую поиграться в свежий https://github.com/LaurieWired/GhidraMCP (MCP Server для Ghidra) от lauriewired через
*Рекомендуется проводить тесты в
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7
Исследователи из 🇺🇸Anthropic попытались буквально «распотрошить» свою LLM-модель Claude 3.5 Haiku, чтобы понять, как она работает изнутри. Вдохновлённые методами нейробиологии, специалисты применили технологию «атрибуции графов», чтобы отследить цепочки вычислений, лежащих в основе каждого ответа модели.
Результаты демонстрируют то, что большие языковые модели улучшаются и постепенно адаптируются к сложному многоступенчатому мышлению.
В качестве примера рассматривается следующий кейс:
Даем модели начало фразы:
«Столица области, в которой находится Тольятти — ...»
Ожидаемый ответ: «Самара».
Как это работает:
Модель сначала определяет, что Тольятти относится к Самарской области, а затем вспоминает, что столицей этой области является Самара.
Проверка вмешательством:
Если внутри модели заменить представление «Самарская область» на, например, «Пермский край», то модель должна изменить ответ на «Пермь».
ИИ-модель демонстрирует наличие внутренней цепочки рассуждений (Город -> Регион -> Столица региона), а не просто поверхностной ассоциации с городом.
Авторы также исследовали то, как модель пишет стихи с рифмой. Оказалось, что Claude 3.5 Haiku заранее планирует финальные слова строк, выбирая подходящие по рифме окончания ещё до начала строки. Эти "планируемые слова" влияют не только на выбор последнего слова, но и на всю структуру строки, включая грамматику и лексику. Таким образом, модель использует как прямое, так и обратное планирование.
Дополнительно были исследованы механизмы мультиязычности. При наличии запросов на английском, французском и китайском языках модель активирует как универсальные «мультиязычные» признаки, так и языково-специфические компоненты. ИИ-модель формирует абстрактные концепты, независящие от конкретного языка, а затем адаптирует их под нужный лингвистический контекст.
Исследование Anthropic демонстрирует, что за кажущейся простотой вывода языковых моделей скрываются сложные, многоуровневые вычислительные механизмы. Методика трассировки цепочек открывает путь к интерпретации нейросетей, позволяя не только понять, как модели мыслят, но и выявлять потенциально опасные или нежелательные паттерны их поведения.
Claude 3.5 Haiku и другие модели ещё, конечно же, далеко не AGI. Но поведение подобных моделей уже не укладывается в рамки традиционного машинного обучения. По мнению специалистов, мы постепенно фиксируем зарождающуюся структуру мышления с метакогнитивными признаками у ИИ: цели, планы, абстракции, логические переходы. И, как в биологии, понимание и пристальное изучение этих элементов является первым шагом на пути к созданию настоящего искусственного разума.
Please open Telegram to view this post
VIEW IN TELEGRAM