Обновить
1129.4

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга
Уровень сложности

Иск на $134 миллиарда: как ChatGPT теряет пользователей, пока Google и Илон Маск захватывают трон

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели2.5K

Скорость сжигания денег, судебный процесс и вопрос на триллион долларов.

В прошлом октябре я задал вопрос, который заставил многих приподнять бровь: Является ли OpenAI (ChatGPT) карточным домиком? Тогда тревожные сигналы лишь мерцали на фоне быстрого масштабирования, зависимости от вычислительных мощностей, надвигающихся исков и приближающихся Голиафов.

Четыре месяца спустя эти мерцания превратились в пламя. Ситуация не просто эволюционировала, она, похоже, драматически обострилась.

OpenAI теперь сталкивается с конкурентным строем, полным падением рыночной доли, иском на 134 миллиарда долларов, который направляется в суд, сжиганием капитала с ужасающей скоростью и подготовкой к тому, что может стать самым значимым IPO в истории технологий.

Так что позвольте мне обновить свою оценку: положение OpenAI больше не просто шаткое. Оно может стать гораздо серьезнее.

Читать далее

Новости

Мой тимлид не пишет код 3 года. Почему он — лучший тимлид, с которым я работал

Уровень сложностиПростой
Время на прочтение8 мин
Охват и читатели2.7K

На Хабре любят хейтить менеджеров, которые «забыли, как кодить». Мол, оторвались от реальности, не понимают сроков, не чувствуют боль разработчика. Я раньше тоже так думал. А потом попал в команду к человеку, который три года не открывал IDE, и за полгода понял, что был неправ.

Читать далее

Цена ошибки: почему антифрод-системы блокируют ваши покупки, но пропускают мошенников на миллиарды

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели2.4K

Почему ваша банковская карта может быть заблокирована, когда вы покупаете кофе в другом городе, хотя мошенники умудряются отмывать миллиарды? В этой статье мы подробно рассмотрим, как работают системы защиты от мошенничества, объясним, что такое компромисс между прецизионностью (точностью) и полнотой на понятном примере, проанализируем потерю $3,1 миллиарда у TD Bank и поговорим о том, как банки и киберзлоумышленники соревнуются, используя Adversarial AI (враждебный искусственный интеллект).

Читать далее

Китайские GLM-5 и Qwen 3.5, музыкальный генератор Lyria 3, создатель OpenClaw в OpenAI и скандал с Claude и Пентагоном

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели3.4K

Привет, это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. 

Неделя выдалась насыщенной: китайцы выкатили GLM-5 для агентных задач и Qwen 3.5 с пониманием изображений, ByteDance представила новую видеомодель, а Meta запатентовала ИИ для ведения аккаунтов после смерти. Ещё Создатель OpenClaw перешёл в OpenAI, а кризис уже добрался до HDD.

Всё самое важное — в одном месте. Поехали!

Читать дайджест →

ТОП-15 бесплатных сервисов для генерации изображений в 2026 году

Уровень сложностиПростой
Время на прочтение13 мин
Охват и читатели4.9K

Нейросети для генерации изображений уже давно перестали быть “игрушкой для вау-эффекта”. Сейчас это рабочий инструмент для контента, дизайна, карточек товаров, баннеров, презентаций и даже быстрых прототипов интерфейсов. Но если открыть поиск по запросам вроде «генерация изображений бесплатно» или «нейросеть для генерации изображений бесплатно», чаще всего попадаются одни и те же сервисы, а реально удобные варианты теряются.

Я собрал подборку из 15 сервисов, где можно делать генерацию картинок онлайн бесплатно — с разным уровнем входа: от “ввел промпт и получил результат” до площадок с моделями, LoRA и тонкой настройкой. Список не про “самые хайповые бренды”, а про инструменты, которые действительно полезны в повседневной работе.

Сразу оговорка: у большинства платформ free-режимы и лимиты периодически меняются (кредиты, очередь, доступные модели), поэтому я ориентировался на актуальные условия на момент подготовки статьи и официальные страницы сервисов.

Читать далее

От MNIST к Transformer. Часть 2. Основы работы с памятью

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели4.6K

Мы живем в эпоху, когда ИИ стал доступен каждому. Но за магией PyTorch скрывается колоссальная инженерная работа и сложные вычислительные процессы, которые для большинства остаются черным ящиком. 

Это вторая статья из цикла От MNIST к Transformer, цель которого пошагово пройти путь от простого CUDA ядра до создания архитектуры Transformer - фундамента современных LLM моделей. Мы не будем использовать готовые высокоуровневые библиотеки. Мы будем разбирать, как все устроено под капотом, и пересобирать их ключевые механизмы своими руками на самом низком уровне. Только так можно по настоящему понять как работают LLM и что за этим стоит. В этой статье разберем основы работы с памятью и две простые математические операции с точки зрения математики, но не такие простые с точки зрения CUDA ядер.

Приготовьтесь, будет много кода на C++ и CUDA, работы с памятью и погружения в архитектуру GPU. И конечно же математика что за этим стоит. Поехали!

Читать далее

Управляем поведением LLM: краткосрочные профили и их ограничения

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели3.1K

Мы привыкли верить, что если сказать модели «будь агрессивным трейдером» или «будь строгим аналитиком», то она действительно начнёт так себя вести. На практике всё не так просто. В длинном диалоге роль быстро выдыхается: модель соглашается с образом, но постепенно возвращается к базовой вежливости, осторожности и бесконечным дисклеймерам.

Зато в коротких запросах происходит совсем другое. Один свежий промпт — и поведение реально сдвигается: модель становится заметно осторожнее, резче, параноидальнее или, наоборот, более рискованной. Это уже не «роль» в привычном смысле, а краткосрочный поведенческий профиль — временная настройка внутренних параметров решения.

Исследования показывают, что такой профиль способен существенно менять поведение. Например, коэффициент неприятия потерь можно «подкрутить» почти в три раза — и модель начнёт требовать значительно большей выгоды, чтобы принять риск. Звучит мощно, но вместе с ним приходят стохастичность, зависимость от формулировки и неожиданные побочные эффекты.

В статье разберём, где такие профили действительно работают, а где начинают ломать предсказуемость системы.

Читать далее

Два процесса, одна задача (КК, Глава 1)

Уровень сложностиСредний
Время на прочтение16 мин
Охват и читатели5.5K

В результате долгих попыток упихнуть методологию разработки в телеграм-посты и Твиттер, пришел к выводу, что это невозможно. Слишком много информации, которую невозможно разрезать на мелкие куски.

Первая глава книги про AI-разработку - по ссылке. Прошу любить и жаловать :-)

Мы поговорим о том, почему отношения с нейросетью в формате «начальник → подчинённый» и «человек → инструмент» работают крайне отстойно. Введем модель сопроцессоров. Посмотрим, как устроено разделение когнитивной нагрузки в связке человек-машина. Что может только человек, что может только AI, и есть ли где-то пересечение.

Интересно! Читать далее

Как в Netflix масштабируют постобучение LLM

Время на прочтение15 мин
Охват и читатели5K

Благодаря предобучению, большие языковые модели (LLM) приобретают широкие лингвистические способности и общий «кругозор» о мире. Но постобучение — не менее важный этап, на котором они как раз усваивают конкретные намерения человека, ограничения, присущие предметной области, а также требования к надёжности, предъявляемые в продакшне. В  Netflix исследовали, как именно LLM могут открыть новые грани рекомендаций, персонализации и поиска. Для этого в Netflix попробовали адаптировать универсальные обобщённые модели к имеющимся условиям так, чтобы они лучше отражали содержание каталога фильмов и нюансы истории взаимодействия пользователей с сайтом. В масштабе такой компании как Netflix постобучение быстро превращается как в инженерную проблему, так и в проблему моделирования: приходится выстраивать сложные конвейеры данных и оперировать ими, координировать распределённое состояние в масштабах многоузловых кластеров GPU и оркестровать потоки задач, в рамках которых перемежаются обучение и логический вывод. В этой статье описаны архитектура и инженерная философия применяемого в Netflix фреймворка постобучения, который был разработан командой по платформе ИИ с целью скрыть сложность инфраструктуры — так, чтобы исследователи и разработчики моделей могли сосредоточиться на внедрении инноваций, а не на латании распределённых систем.

Читать далее

Андрей Карпаты только что создал полноценный GPT на 240 строках Python

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели9.5K

Никакого PyTorch. Никакого TensorFlow. Только чистый Python и базовая математика.

За время работы над докторской я перечитал множество реализаций трансформеров. Плотные кодовые базы. Тысячи файлов. Зависимости, нагроможденные на зависимости. Открываешь репозиторий, запускаешь pip install -r requirements.txt и смотришь, как скачиваются 400 пакетов, прежде чем ты вообще увидишь, как твоя модель тренируется (а потом ошибки, проблемы с версиями... и так далее).

А потом, 11 февраля 2026 года, Андрей Карпаты выложил один-единственный файл на Python, который обучает и запускает GPT с нуля. 240 строк. Ноль зависимостей.

Читать далее

Лимит доверия: как ИИ решает, сколько денег вам можно дать (и почему это часто несправедливо)

Уровень сложностиПростой
Время на прочтение11 мин
Охват и читатели8.4K

Что влияет на размер вашего кредитного лимита? И почему банк может вдруг его уменьшить, даже если вы всегда вовремя вносите платежи? В предыдущей статье мы выяснили, как банки применяют модели машинного обучения для определения вашей кредитоспособности; в этой статье мы рассмотрим примеры Synchrony Bank и Apple Card, объясним тактику “low-and-grow” и продемонстрируем, как банки задействуют поведенческую экономику и обучение с подкреплением для контроля над вашими задолженностями.

Очень интересно, хочу прочитать!

Дрейф данных в машинном обучении

Время на прочтение7 мин
Охват и читатели8.6K

Дрейф данных (Drift Data) — это ситуация, когда статистические свойства входных данных для модели машинного обучения изменяются со временем. При дрейфе данных взаимосвязи между признаками и самой целевой переменной перестают быть действительными. Это может привести к низкой производительности модели, неточным прогнозам и даже к сбоям.

Читать далее

Пилот взлететел, полет нормальный

Уровень сложностиПростой
Время на прочтение15 мин
Охват и читатели6.6K

А никто не обещал, что на хакатоне будет легко.

Небольшой репортажэ, про то как мы проводили Хакатон сред студентов по машинному обучению и анализу данных. Реальный разбор подготовки, фишки, плюсы и работа на хакатоне глазами организаторов.

Читать далее

Ближайшие события

ИИ в юриспруденции: топ-10 нейросетей для юристов (Нейроюрист, BotHub, Kampus.AI, GigaChat и другие)

Уровень сложностиПростой
Время на прочтение16 мин
Охват и читатели5.7K

Если вы еще не пользуетесь нейросетями, вы либо очень занятой человек, либо очень принципиальный. А скорее всего, просто не знаете, с какой стороны к ним подступиться.

Давайте сразу к цифрам. По данным совместного исследования Авито и Право.ru, проведенного в конце 2025 года, 88% российских юристов уже используют ИИ в работе. Да-да, почти девять из десяти. И 63% из них честно признаются: эффективность выросла. Остальные 37% либо скромничают, либо пока не подобрали правильный промпт.

Коллеги из LegalOn посчитали еще интереснее: юридическая команда среднего размера, которая проходит около 500 контрактов в год, тратит на это от 1000 до 2000 часов. Это годовой график одного сотрудника, потраченный на чтение бумажек. Теперь представьте, что эти же часы можно потратить на что-то более осмысленное, чем проверка пункта 3.2 в пятьдесят первый раз.

Конечно, у любой медали есть обратная сторона. Исследователи из Кембриджа недавно провели сравнительный анализ пяти популярных ИИ-инструментов и выяснили, что даже самые продвинутые модели продолжают галлюцинировать, то есть выдавать несуществующие судебные решения и ссылки на законы, которые никто не принимал. Помните историю про адвоката, который принес в суд прецеденты, придуманные ChatGPT? Вот, нейросети ничему не учатся, разве что мы их этому учим.

Поэтому давайте сразу договоримся. ИИ - это очень быстрый и старательный стажер. Он может за час перелопатить сто страниц судебной практики и выдать резюме. Но подписывать своей фамилией его работу без проверки - это профессиональная небрежность чистой воды.

Читать далее

Секретное оружие физиков: почему спинтроника убьет современную электронику

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели7.2K

Спинтроника использует спин электрона вместо заряда, снижает энергопотребление на 90%, а память MRAM уже вошла в коммерческий оборот.

Сегодня дата-центры пожирают более 4% всей электроэнергии США. К 2030 году эта цифра может утроиться. И пока технологические гиганты выделяют колоссальные суммы на строительство атомных электростанций исключительно для своих ИИ-серверов, технология, существующая уже десятилетия, может превратить эти инвестиции в пыль.

Имя ей - спинтроника. И она вот-вот окажется у вас в кармане.

Что делает эту технологию захватывающей, так это то, что она не опирается на какую-то новую концепцию. Она эксплуатирует фундаментальное свойство электронов, о котором физики знают уже более ста лет: спин. Каждый электрон вращается вокруг своей оси, словно микроскопический волчок. И это вращение создает крошечный магнитный момент.

Читать далее

12 бит против 8 бит в камере для проведения металлографических исследований при помощи оптического микроскопа

Время на прочтение9 мин
Охват и читатели6.6K

В лаборатории к инвертированному оптическому микроскопу Zeiss Axio Observer 3 подключена промышленная камера The Imaging Source DFK 33UX265 для выполнения металлографических задач: анализ зерна, неметаллических включений, поиска дефектов структуры. Мне стало интересно, как она устроена и что есть у нее "под капотом". Когда мы проводим анализ, то не задумываемся о постобработки, а под "капотом" любой камеры есть много интересных режимов. Я ухватился за 12-битный монохромный Bayer-формат (часто обозначаемый как 12-bit Bayer Packed) — это формат RAW-данных, при котором с сенсора с фильтром Байера считывается 12 бит информации на пиксель без цветовой интерполяции. Это обеспечивает более высокий динамический диапазон (4096 уровней яркости) по сравнению с 8-битным форматом (256 уровней), сохраняя «сырые» данные.

Большинство программ, связанных с металловедением принимают картинку в 8 бит. И я хотел бы разобраться в вопросе, а так ли нужен при оценке и автоматизации режим 12 бит.

Читать далее

Зачем роботам погонщик?

Время на прочтение8 мин
Охват и читатели6.2K

У любой сложной технической системы есть граница, на которой модель больше не совпадает с реальностью. Если вы видели систему со всеми зелёными метриками, но интуиция подсказывала, что дежурство будет тяжёлым, вы знаете это состояние. В распределительных центрах эту границу видят не в логах и дашбордах, а на полу склада. Когда алгоритм уже всё просчитал, а физический мир внёс свои правки.

Эта статья не про роботов как технологию и не про автоматизацию как цель. Она про роль, которая появляется, когда автоматизация становится массовой. Про человека, который стоит между WMS, роботами и реальным складом. И про то, почему без этой роли, даже если формально всё работает, автоматизация со временем деградирует.

Читать далее

ИИ не уничтожит вашу работу. Ее уничтожит стагнация — и вот почему

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели6.8K

Почему Марк Андриссен верит, что мы стоим перед лицом экономической «Мексиканской дуэли», и как стать тем, кто выживет в этой перестрелке.

Этот нарратив повсюду: «Роботы идут. Твоей работе конец. Алгоритм заменит тебя».

Это главная тревога 2020-х. Но Марк Андриссен, человек, написавший код, породивший современный интернет (Netscape), и венчурный капиталист, стоящий за почти каждым технологическим гигантом последнего десятилетия (a16z), считает, что мы все поняли наоборот.

В недавней публикации Андриссен сделал заявление, идущее вразрез с общим мнением:

Читать далее

Как устроен Codex

Уровень сложностиПростой
Время на прочтение20 мин
Охват и читатели5.8K

Подробный разбор того, как команда OpenAI Codex создаёт своего кодового агента, как его используют другие команды, как он влияет на инженерные практики создателей ChatGPT и что это может значить для будущего разработки ПО.

Чтобы в этом разобраться, я поговорил с тремя сотрудниками OpenAI:

Тибо Соттио (Thibault Sottiaux) — руководитель Codex.

Шао-Цянь Ма (Shao-Qian (SQ) Mah) — исследователь в команде Codex, обучающий модели, на которых тот работает.

Эмма Тан (Emma Tang) — руководитель data-инфраструктуры; она не входит в команду Codex, но её команда активно им пользуется.

В этом разборе:

Как всё начиналось. От внутреннего эксперимента в конце 2024 года до продукта, которым пользуется больше миллиона разработчиков.

Технологические и архитектурные решения. Почему Rust и open source? Подробно о том, как работает агентный цикл.

Как Codex создаёт сам себя. По оценкам команды, более 90% кода приложения написано самим агентом. А ещё: интересные инженерные практики — как проводят код-ревью, самотестирование Codex и онбординг новых инженеров.

Исследования. Обучение следующей модели с помощью текущей и параллели с разработкой ПО. Запуск eval'ов, A/B-тестирование и внутренний догфудинг (использование сотрудниками собственных наработок в повседневной работе — прим перев.).

Использование Codex в OpenAI. Количество PR стало таким, что традиционный процесс ревью начинает трещать по швам. Мысли команды про то, что с этим делать.

Как меняется разработка ПО в OpenAI. «Правило 30/70», возвращение некоторых инженеров к tab completion и значение «инженерного вкуса».

Читать далее

Нейросимвольный ИИ: архитектура семантической нейросети. Как научить LLM считать

Уровень сложностиПростой
Время на прочтение17 мин
Охват и читатели4.6K

LLM ошибаются в элементарной математике. Корпорации тратят миллиарды, но в конечном счете вынуждены прикручивать калькуляторы к вычислительным машинам невероятной мощи. Все попытки исправить через Chain-of-Thought, fine-tuning на задачах счёта, увеличение контекста не сработали.

Я провёл серию экспериментов чтобы понять почему, и пришел к выводу, что нейросети просто не предназначены для дискретной арифметики. Их предназначение непрерывные трансформации.

В этой статье описывается реализация новой архитектуры нейросетей, объединяющая точность символьного ИИ и способность к обобщению LLM. Код как всегда прилагается.

Читать далее
1
23 ...