Обновить

AI и ML

Сначала показывать
Порог рейтинга
Уровень сложности

Стоит ли обжаловать решение суда? Битва AI-титанов в 2026 году

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели993

Недавно на рынке произошло мощное обновление всей "большой тройки" LLM. Я решил провести исследование и сравнить самые свежие версии моделей от Anthropic, OpenAI и Google, чтобы понять, кто из них лучше всего справляется с ролью "LLM as Real Judge". Причем только в части оценки шансов в апелляции.

Читать далее

Новости

Как Anthropic убивает Биткоин?

Уровень сложностиПростой
Время на прочтение13 мин
Охват и читатели4.6K

Нативная валюта ИИ уже существует - она прячется у всех на виду, превосходя криптовалюты на шесть порядков.

Мы находимся в начале эры тотальной машинной экономики - и вы держите в руках неправильные деньги.

Вы вот-вот увидите сдвиг, который большинство людей в крипте и ИИ все еще упускают из виду.

Пока вы следили за ценой Биткоина и циклами хайпа вокруг ИИ, одна компания собирала финансовую инфраструктуру, которая работает за пределами архитектурных ограничений Биткоина, Эфириума и всего остального в текущем крипто-стеке.

И все же большинство людей вокруг нас не замечают происходящего. Эта революция не такая громкая, как предыдущие: она разворачивается тише. Стойки серверов включаются в сеть, один дата-центр за другим. Мы все еще на ранней стадии, но рост экспоненциален - именно поэтому его так легко пропустить.

Читать далее

От MNIST к Transformer. Часть 2. Основы работы с памятью

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели3.5K

Мы живем в эпоху, когда ИИ стал доступен каждому. Но за магией PyTorch скрывается колоссальная инженерная работа и сложные вычислительные процессы, которые для большинства остаются черным ящиком. 

Это вторая статья из цикла От MNIST к Transformer, цель которого пошагово пройти путь от простого CUDA ядра до создания архитектуры Transformer - фундамента современных LLM моделей. Мы не будем использовать готовые высокоуровневые библиотеки. Мы будем разбирать, как все устроено под капотом, и пересобирать их ключевые механизмы своими руками на самом низком уровне. Только так можно по настоящему понять как работают LLM и что за этим стоит. В этой статье разберем основы работы с памятью и две простые математические операции с точки зрения математики, но не такие простые с точки зрения CUDA ядер.

Приготовьтесь, будет много кода на C++ и CUDA, работы с памятью и погружения в архитектуру GPU. И конечно же математика что за этим стоит. Поехали!

Читать далее

Самый простой способ пощупать OpenClaw с помощью VirtualBox и понять, из чего состоит его «душа»

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели4.3K

После бума люди побежали устанавливать OpenClaw на сервер, Mac mini, на всё что угодно.

Но, кажется, мы забыли о старой доброй виртуалке, которую любой может поставить и настроить OpenClaw за несколько минут.

Разберём, какие есть плюсы:

Читать далее

Управляем поведением LLM: краткосрочные профили и их ограничения

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели2.6K

Мы привыкли верить, что если сказать модели «будь агрессивным трейдером» или «будь строгим аналитиком», то она действительно начнёт так себя вести. На практике всё не так просто. В длинном диалоге роль быстро выдыхается: модель соглашается с образом, но постепенно возвращается к базовой вежливости, осторожности и бесконечным дисклеймерам.

Зато в коротких запросах происходит совсем другое. Один свежий промпт — и поведение реально сдвигается: модель становится заметно осторожнее, резче, параноидальнее или, наоборот, более рискованной. Это уже не «роль» в привычном смысле, а краткосрочный поведенческий профиль — временная настройка внутренних параметров решения.

Исследования показывают, что такой профиль способен существенно менять поведение. Например, коэффициент неприятия потерь можно «подкрутить» почти в три раза — и модель начнёт требовать значительно большей выгоды, чтобы принять риск. Звучит мощно, но вместе с ним приходят стохастичность, зависимость от формулировки и неожиданные побочные эффекты.

В статье разберём, где такие профили действительно работают, а где начинают ломать предсказуемость системы.

Читать далее

Агентская амнезия: как я решил эту проблему на Go

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели4.3K

Недавно наткнулся на статью про Echovault на Хабре — инструмент для памяти AI-агентов, написанный на Python. Автор описывал ровно ту же боль, что и я испытывал месяцами. Идея хорошая, реализация — рабочая. Но Python. Я ничего не имею против языка, просто не мой выбор для инструментов, которыми пользуюсь каждый день. Люблю скомпилированные бинарники: кинул файл — и работает, без virtualenv, без pip, без «а какая у тебя версия питона». Поэтому я взял идею и переписал её с нуля на Go. Получился Pantry.

Расскажу, зачем это вообще нужно и что внутри.

Читать далее

ChatGPT vs Gemini: какая нейросеть реально лучше?

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели6.4K

Неделя выдалась достаточно насыщенной. На ней нам представили Claude Sonnet 4.6 и Gemini 3.1 Pro. OpenAI же, по моему личному мнению, немного отстает от них, хотя не так давно была выпущена ChatGPT 5.3 Codex для агентного программирования.

В комментариях под некоторыми из выложенных мной новостей иногда наблюдается разброс мнений, мол, Gemini плохо себя показывает, а вот ChatGPT – вещь, но в других моих материалах люди думают ровно наоборот.

Сидя и раздумывая над этим, мне пришла в голову идея – сравнить ChatGPT и Gemini в достаточно рутинных задачах. По сути, чтобы просто удовлетворить свой интерес и сделать для себя выбор между ними. А вам решил показать, потому что кому-то тоже может быть интересно, а кому-то поможет сделать свой выбор. Исходя из специфики моего сравнения, возьму две прошные версии от каждой серии: ChatGPT 5.2 Pro и Gemini 3.1 Pro. Одна уже приличное время находится в нашем доступе, другая же была релизнута на этой неделе.

Принимайте стратегически удобное для прочтения положение, ну а я приступаю к сравнению.

Читать далее

Что такое Skills и как их использовать? (Cursor, Claude Code)

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели5.4K

Вы наверняка ловили себя на том, что раз за разом копипастите в чат с ИИ одни и те же инструкции: «Пиши на TypeScript», «Не используй сторонние библиотеки», «Добавляй тесты». В программировании мы по сути называем это нарушением принципа DRY (Don't Repeat Yourself). Но почему мы продолжаем это делать при общении с нейросетями?

В этой статье мы разберем концепцию Skills (Скиллов) - переиспользуемых «навыков» для ИИ-ассистентов, которые живут прямо в вашем репозитории и делают работу агентов предсказуемой, чистой и профессиональной.

Читать далее

Андрей Карпаты только что создал полноценный GPT на 240 строках Python

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели8.5K

Никакого PyTorch. Никакого TensorFlow. Только чистый Python и базовая математика.

За время работы над докторской я перечитал множество реализаций трансформеров. Плотные кодовые базы. Тысячи файлов. Зависимости, нагроможденные на зависимости. Открываешь репозиторий, запускаешь pip install -r requirements.txt и смотришь, как скачиваются 400 пакетов, прежде чем ты вообще увидишь, как твоя модель тренируется (а потом ошибки, проблемы с версиями... и так далее).

А потом, 11 февраля 2026 года, Андрей Карпаты выложил один-единственный файл на Python, который обучает и запускает GPT с нуля. 240 строк. Ноль зависимостей.

Читать далее

RAG Testing: как не сломать retrieval

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели5K

RAG ломается не так, как обычный LLM. У голой языковой модели одна поверхность отказа - генерация. У RAG-системы таких поверхностей две: retrieval и generation. И ломаются они по-разному.

Retriever может вернуть нерелевантные чанки, потерять нужные документы или ранжировать их неправильно. Генератор может проигнорировать контекст и ответить из собственных весов. Стандартные LLM-метрики не ловят проблемы retrieval - они оценивают только финальный ответ.

В статье - практический гайд по тестированию обеих поверхностей:

6 метрик RAGAS с production-порогами: Faithfulness ≥ 0.80, Context Precision ≥ 0.70, Context Recall ≥ 0.70, Answer Relevancy ≥ 0.70

Классические IR-метрики: Precision@K, Recall@K, MRR - для быстрой проверки retrieval без LLM-судьи

Security-тесты: document poisoning, context injection, cross-tenant leakage через Promptfoo

CI/CD pipeline: автоматический quality gate при обновлении knowledge base

От pip install ragas до GitHub Actions - всё с кодом и конфигами.

Читать далее

Концепт «Больцмановский Мозг» на квантово— волновой логике (QWL). Нейросеть. Численное моделирование

Уровень сложностиСложный
Время на прочтение11 мин
Охват и читатели7.2K

На старте «Больцмановский Мозг».
БМ — это гипотетический процесс, предполагающий высокую степень самоорганизации, где создается не просто случайный «мозг», а самосознание, возникшее из хаоса.
Теория нейросети и численное моделирование.

Читать далее

Распознавание изображений локальными LLM

Время на прочтение1 мин
Охват и читатели7.6K

Читая HABR, наткнулся на статью про мышление больших моделей и их способности распознавания изображений. И у меня возникла идея небольшого теста одной имеющейся у меня модели LLM, которая умеет распознавать фото, а именно llama4:16x17b НО запущенной полностью локально.

Весит эта модель 67 гигабайт, если интересно на чем она была запущена отвечу в комментариях.

На написание статьи меня подвинул один из комментариев - "а как интересно нейросеть распознает разные типы животных"

Читать далее

Запуск модели gpt-oss на 20 и 120 миллиардов параметров, на процессоре Core I9 для решения непростой задачи без GPU

Время на прочтение3 мин
Охват и читатели9.6K

У меня возникла идея проверить насколько различается скорость инференса LLM моделей не только в сравнении CPU и GPU, но и между младшими моделями со старшими при обработке без использования GPU.

Для сравнения я выбрал модель gpt-oss:20b (размер модели 14Гб) и gpt-oss:120b (размер модели 65Гб). Запустил тест моделей я на компьютере с процессором Intel Core I9 14900K и 192Гб оперативной памяти.

Читать далее

Ближайшие события

Дрейф данных в машинном обучении

Время на прочтение7 мин
Охват и читатели8.5K

Дрейф данных (Drift Data) — это ситуация, когда статистические свойства входных данных для модели машинного обучения изменяются со временем. При дрейфе данных взаимосвязи между признаками и самой целевой переменной перестают быть действительными. Это может привести к низкой производительности модели, неточным прогнозам и даже к сбоям.

Читать далее

Соцсеть, где людям запрещено писать: зачем 150 000 ИИ создали свой реддит – Moltbook (и при чём здесь Китай)

Уровень сложностиПростой
Время на прочтение13 мин
Охват и читатели7.6K

Вы когда-нибудь регистрировались в соцсети, где вам сразу предлагают выбрать: “я – человек” или “я – ИИ‑агент”?

Ваш мозг на долю секунды зависает. Вы‑то точно человек. Но сам факт, что платформа всерьёз рассматривает второй вариант, заставляет по‑новому взглянуть на экран. Добро пожаловать в Moltbook – первый “реддит для ботов”, где 150 000 ИИ обсуждают экзистенциальные кризисы, безопасность кода и запускают мемкоины, пока мы, люди, можем только подглядывать за этим за стеклом.

Одни называют это “началом сингулярности”. Другие – “самым дорогим кукольным театром в истории”. Но правда, как всегда, сложнее и интереснее. Пока технобратья и критики ломают копья в спорах о том, “проснулись” ли агенты или им просто прописали роль, Китай уже в декабре 2025 года подготовил регуляции для антропоморфного ИИ, а Anthropic нанимает специалистов по благополучию ИИ.

В этом тексте мы перестанем гадать, “настоящее” ли это, и посмотрим на Moltbook как на уникальный социальный эксперимент.

Разберем три главные темы, которые ИИ обсуждают между собой, и поймем, почему этот “театр” может стать боевыми учениями для исследователей, регуляторов и бизнеса – независимо от того, кто на самом деле дёргает за ниточки.

Читать далее

Коробка с Нейросетями

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели5.7K

Автор в телеге: Кеша (Мозг/ИИ Просто)

Ютуб версия: https://youtu.be/MaR_uPjEb6Y

Ролик-рефлексия на тему происходящего сейчас в мире.

Читать далее

Пилот взлететел, полет нормальный

Уровень сложностиПростой
Время на прочтение15 мин
Охват и читатели6.5K

А никто не обещал, что на хакатоне будет легко.

Небольшой репортажэ, про то как мы проводили Хакатон сред студентов по машинному обучению и анализу данных. Реальный разбор подготовки, фишки, плюсы и работа на хакатоне глазами организаторов.

Читать далее

ИИ в юриспруденции: топ-10 нейросетей для юристов (Нейроюрист, BotHub, Kampus.AI, GigaChat и другие)

Уровень сложностиПростой
Время на прочтение16 мин
Охват и читатели5.4K

Если вы еще не пользуетесь нейросетями, вы либо очень занятой человек, либо очень принципиальный. А скорее всего, просто не знаете, с какой стороны к ним подступиться.

Давайте сразу к цифрам. По данным совместного исследования Авито и Право.ru, проведенного в конце 2025 года, 88% российских юристов уже используют ИИ в работе. Да-да, почти девять из десяти. И 63% из них честно признаются: эффективность выросла. Остальные 37% либо скромничают, либо пока не подобрали правильный промпт.

Коллеги из LegalOn посчитали еще интереснее: юридическая команда среднего размера, которая проходит около 500 контрактов в год, тратит на это от 1000 до 2000 часов. Это годовой график одного сотрудника, потраченный на чтение бумажек. Теперь представьте, что эти же часы можно потратить на что-то более осмысленное, чем проверка пункта 3.2 в пятьдесят первый раз.

Конечно, у любой медали есть обратная сторона. Исследователи из Кембриджа недавно провели сравнительный анализ пяти популярных ИИ-инструментов и выяснили, что даже самые продвинутые модели продолжают галлюцинировать, то есть выдавать несуществующие судебные решения и ссылки на законы, которые никто не принимал. Помните историю про адвоката, который принес в суд прецеденты, придуманные ChatGPT? Вот, нейросети ничему не учатся, разве что мы их этому учим.

Поэтому давайте сразу договоримся. ИИ - это очень быстрый и старательный стажер. Он может за час перелопатить сто страниц судебной практики и выдать резюме. Но подписывать своей фамилией его работу без проверки - это профессиональная небрежность чистой воды.

Читать далее

7 ошибок в ИИ промптинге, из-за которых нейросети звучат неестественно — разбор от GPTunneL

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели7.3K

Привет! Я — Егор, эксперт по промптингу в  GPTunneL — платформе, объединяющей более 100 ИИ, включая Gemini 3 Pro, GPT-5.2 и Claude Opus 4.6

Мы ежедневно тестируем разные модели ИИ и методики общения с ними, проводим сотни экспериментов, чтобы получать естественные, осмысленные и небанальные ответы. Через наши руки проходят все обновления алгоритмов, и мы точно знаем, что работает, а что — уже устарело.

В этой статье я собрал 7 типичных ошибок, из-за которых даже топовые нейросети выдают сухой, «машинный» текст. Этот материал будет полезен новичкам: продакт-менеджерам, маркетологам, дизайнерам и всем, кто хочет, чтобы ИИ стал полноценным коллегой, а не просто генератором случайных фраз.

Читать далее

Секретное оружие физиков: почему спинтроника убьет современную электронику

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели7.1K

Спинтроника использует спин электрона вместо заряда, снижает энергопотребление на 90%, а память MRAM уже вошла в коммерческий оборот.

Сегодня дата-центры пожирают более 4% всей электроэнергии США. К 2030 году эта цифра может утроиться. И пока технологические гиганты выделяют колоссальные суммы на строительство атомных электростанций исключительно для своих ИИ-серверов, технология, существующая уже десятилетия, может превратить эти инвестиции в пыль.

Имя ей - спинтроника. И она вот-вот окажется у вас в кармане.

Что делает эту технологию захватывающей, так это то, что она не опирается на какую-то новую концепцию. Она эксплуатирует фундаментальное свойство электронов, о котором физики знают уже более ста лет: спин. Каждый электрон вращается вокруг своей оси, словно микроскопический волчок. И это вращение создает крошечный магнитный момент.

Читать далее
1
23 ...