Обновить
2030.23

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга
Уровень сложности

Zator: Специализированный язык программирования для построения генеративных пайплайнов через KoboldCpp и StableDiffusion

Уровень сложностиПростой
Время на прочтение33 мин
Охват и читатели526

Язык программирования Zator представляет собой интересный и четко очерченный пример доменно-ориентированного языка, разработанного не для универсальных задач программирования, а для решения одной конкретной, но все более значимой проблемы — построения сложных генеративных пайплайнов для создания текста и изображений = Его философия коренится в стремлении минимизировать "шаблонный" код, который традиционно мешает созданию содержания, и предоставить разработчикам, дизайнерам и другим создателям контента высокоуровневые абстракции для работы с передовыми технологиями искусственного интеллекта . В отличие от мощных, но часто громоздких общепurpose языков, таких как Python или JavaScript, Zator делает ставку на простоту, скорость и специализацию, что определяет его место в экосистеме инструментов для ИИ =

Основная идея, лежащая в основе Zator, заключается в том, чтобы стать "языком описания пайплайнов", который работает поверх существующих сервисов искусственного интеллекта, а именно KoboldCpp и Stable Diffusion = Задача создания последовательностей, где результат одного шага (например, сгенерированный текст) используется как вход для следующего (например, промпт для генерации изображения), требует сложного взаимодействия с API. Это обычно включает в себя написание кода для сетевых запросов, управления состоянием, парсинга JSON-ответов и обработки файлов. Zator призван инкапсулировать всю эту сложность внутри нескольких ключевых функций, таких как generate_text() и generate_img(), которые абстрагируют низкоуровневые детали и позволяют пользователю сосредоточиться исключительно на логике своего пайплайна . Таким образом, язык позиционируется как инструмент, снижающий порог входа для людей без глубоких знаний в области системного программирования или веб-разработки, позволяя им быстро экспериментировать и создавать сложные генеративные сценарии .

Читать далее

Новости

Реальный Real-time: управление ориентацией без фазовых задержек на быстрых МК

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели1.7K

В задачах стабилизации и высокоточного наведения присутствуют постоянные проблемы — классические алгоритмы (вроде PID-регуляторов) на высоких скоростях либо начинают звенеть из-за шумов дифференциальной составляющей, либо безнадежно отстают от динамики цели из-за фазового лага. С другой стороны, попытки внедрить туда тяжелые нейросети разбиваются о нехватку ресурсов микроконтроллера и неприемлемые задержки вычислений (latency).

Я разработал алгоритм управления, в основе которого лежит легковесное рекуррентное нейро-алгебраическое ядро. Оно работает напрямую с матрицами вращения в топологическом пространстве SO(3), что позволяет избежать множества проблем классической аппроксимации.

Читать далее

Нейросети, суды и разработчики: кто отвечает за то, что придумал ИИ?

Уровень сложностиСредний
Время на прочтение12 мин
Охват и читатели3K

ИИ-контент. Что это для вас?

ИИ сегодня не использует только ленивый. Это просто, удобно, быстро и не дорого (если вообще не бесплатно). ИИ уже может все от текстов и картинок до кода и музыки. Но есть вопрос, о котором никто не думает до первого суда: кому это принадлежит?

 Мне, как IT-юристу было любопытно в этом разбираться. Но для авторов и создателей это вопрос не любопытства, а потенциальных исков и штрафов.

На первый взгляд регулирования нет, закона нет, многие думают, что все можно.

Вы тоже?

Читать далее

Data Structure Protocol (DSP): как дать LLM-агентам «долговременную память» о большом репозитории

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели3K

Есть паттерн, который видит каждый, кто работает с агентами: первые 5–15 минут уходят не на задачу, а на "ориентацию". Где точка входа? Откуда растут зависимости? Почему эта библиотека, а не другая? Кто считает это публичным API? В маленьком проекте раздражает. В большом — превращается в постоянный налог на токены и внимание.

DSP (Data Structure Protocol) "выносит карту проекта наружу" — в простой, версионируемый, языковой граф, который живёт рядом с кодом и доступен агенту как постоянная память.

k-kolomeitsev/data-structure-protocol

Цель в архитектуре сформулирована так:

1) Цель и границы

Цель DSP — хранить минимальный, но достаточный контекст о репозитории/системе артефактов в виде графа «сущности → зависимости/публичный API», чтобы LLM могла:

- быстро находить нужные фрагменты по UID,

- понимать «зачем» сущности существуют и «как» они связаны,

- не требовать загрузки исходников целиком в контекстное окно.

DSP — это долговременная память и индекс проекта для LLM. Агент может в любой момент выполнить поиск (grep) по проекту, найти нужные сущности по описаниям/ключевым словам и от найденного UID раскрутить весь граф связей: входящие зависимости, исходящие импорты, реципиентов через exports. Это заменяет необходимость «помнить» структуру проекта или загружать его целиком — вся карта проекта всегда доступна через .dsp.

Читать далее

AI и Data engineering: Что реально происходит с профессией?

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели2.7K

Сразу успокоим читателя: AI не вытеснил data-инженера из рабочего процесса. Наоборот, он сделал эту роль еще более значимой. И в этой статье объясняется, что именно это означает для вас и вашей профессии. Не с точки зрения технологий и инструментов, а с точки зрения изменения зоны ответственности.

AI, как и везде, конечно классно справляется с некоторыми задачами, но всю ответственность по-прежнему несет человек. Весь контекст не передашь через промпт, и AI не делает компромиссных решений. Большинство систем не выходят из строя, потому что было сложно написать код. Выходят потому что решения по разработке были приняты поспешно, и без четкого понимания, кто и как этими системами будет пользоваться. И AI еще быстрее за нас принимает решения, но все те же риски «непонимания контекста» остаются.

Читать далее

Как Anthropic убивает Биткоин?

Уровень сложностиПростой
Время на прочтение13 мин
Охват и читатели3.6K

Нативная валюта ИИ уже существует - она прячется у всех на виду, превосходя криптовалюты на шесть порядков.

Мы находимся в начале эры тотальной машинной экономики - и вы держите в руках неправильные деньги.

Вы вот-вот увидите сдвиг, который большинство людей в крипте и ИИ все еще упускают из виду.

Пока вы следили за ценой Биткоина и циклами хайпа вокруг ИИ, одна компания собирала финансовую инфраструктуру, которая работает за пределами архитектурных ограничений Биткоина, Эфириума и всего остального в текущем крипто-стеке.

И все же большинство людей вокруг нас не замечают происходящего. Эта революция не такая громкая, как предыдущие: она разворачивается тише. Стойки серверов включаются в сеть, один дата-центр за другим. Мы все еще на ранней стадии, но рост экспоненциален - именно поэтому его так легко пропустить.

Читать далее

О дивный новый код

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели3.3K

Продолжение моей статьи Мечтают ли архитекторы об электроовцах?, в которой я обещал привести практический пример.

Читать далее

От MNIST к Transformer. Часть 2. Основы работы с памятью

Уровень сложностиСредний
Время на прочтение15 мин
Охват и читатели2.9K

Мы живем в эпоху, когда ИИ стал доступен каждому. Но за магией PyTorch скрывается колоссальная инженерная работа и сложные вычислительные процессы, которые для большинства остаются черным ящиком. 

Это вторая статья из цикла От MNIST к Transformer, цель которого пошагово пройти путь от простого CUDA ядра до создания архитектуры Transformer - фундамента современных LLM моделей. Мы не будем использовать готовые высокоуровневые библиотеки. Мы будем разбирать, как все устроено под капотом, и пересобирать их ключевые механизмы своими руками на самом низком уровне. Только так можно по настоящему понять как работают LLM и что за этим стоит. В этой статье разберем основы работы с памятью и две простые математические операции с точки зрения математики, но не такие простые с точки зрения CUDA ядер.

Приготовьтесь, будет много кода на C++ и CUDA, работы с памятью и погружения в архитектуру GPU. И конечно же математика что за этим стоит. Поехали!

Читать далее

Самый простой способ пощупать OpenClaw с помощью VirtualBox и понять, из чего состоит его «душа»

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели3.6K

После бума люди побежали устанавливать OpenClaw на сервер, Mac mini, на всё что угодно.

Но, кажется, мы забыли о старой доброй виртуалке, которую любой может поставить и настроить OpenClaw за несколько минут.

Разберём, какие есть плюсы:

Читать далее

Амиш-программист, или «И кто тут псих?»

Время на прочтение4 мин
Охват и читатели3K

Амиши — религиозная община в США, которая сознательно отказывается от большинства современных технологий, особенно от электричества. В то же время большинство фермеров использует максимально высокотехнологичное сельское хозяйство.

Когда смотришь на эту картину, кажется очевидным: «психи — это амиши, зачем отказываться от благ прогресса?». Но если копнуть глубже и взглянуть на долгосрочные тенденции, возникает другой вопрос: а вдруг всё не так однозначно?

Эта дилемма гораздо шире, чем кажется на первый взгляд, и касается не только фермеров, но и представителей самых разных профессий — в том числе айтишников.

Читать далее

Управляем поведением LLM: краткосрочные профили и их ограничения

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели2.3K

Мы привыкли верить, что если сказать модели «будь агрессивным трейдером» или «будь строгим аналитиком», то она действительно начнёт так себя вести. На практике всё не так просто. В длинном диалоге роль быстро выдыхается: модель соглашается с образом, но постепенно возвращается к базовой вежливости, осторожности и бесконечным дисклеймерам.

Зато в коротких запросах происходит совсем другое. Один свежий промпт — и поведение реально сдвигается: модель становится заметно осторожнее, резче, параноидальнее или, наоборот, более рискованной. Это уже не «роль» в привычном смысле, а краткосрочный поведенческий профиль — временная настройка внутренних параметров решения.

Исследования показывают, что такой профиль способен существенно менять поведение. Например, коэффициент неприятия потерь можно «подкрутить» почти в три раза — и модель начнёт требовать значительно большей выгоды, чтобы принять риск. Звучит мощно, но вместе с ним приходят стохастичность, зависимость от формулировки и неожиданные побочные эффекты.

В статье разберём, где такие профили действительно работают, а где начинают ломать предсказуемость системы.

Читать далее

Агентская амнезия: как я решил эту проблему на Go

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели3.9K

Недавно наткнулся на статью про Echovault на Хабре — инструмент для памяти AI-агентов, написанный на Python. Автор описывал ровно ту же боль, что и я испытывал месяцами. Идея хорошая, реализация — рабочая. Но Python. Я ничего не имею против языка, просто не мой выбор для инструментов, которыми пользуюсь каждый день. Люблю скомпилированные бинарники: кинул файл — и работает, без virtualenv, без pip, без «а какая у тебя версия питона». Поэтому я взял идею и переписал её с нуля на Go. Получился Pantry.

Расскажу, зачем это вообще нужно и что внутри.

Читать далее

ChatGPT vs Gemini: какая нейросеть реально лучше?

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели5.3K

Неделя выдалась достаточно насыщенной. На ней нам представили Claude Sonnet 4.6 и Gemini 3.1 Pro. OpenAI же, по моему личному мнению, немного отстает от них, хотя не так давно была выпущена ChatGPT 5.3 Codex для агентного программирования.

В комментариях под некоторыми из выложенных мной новостей иногда наблюдается разброс мнений, мол, Gemini плохо себя показывает, а вот ChatGPT – вещь, но в других моих материалах люди думают ровно наоборот.

Сидя и раздумывая над этим, мне пришла в голову идея – сравнить ChatGPT и Gemini в достаточно рутинных задачах. По сути, чтобы просто удовлетворить свой интерес и сделать для себя выбор между ними. А вам решил показать, потому что кому-то тоже может быть интересно, а кому-то поможет сделать свой выбор. Исходя из специфики моего сравнения, возьму две прошные версии от каждой серии: ChatGPT 5.2 Pro и Gemini 3.1 Pro. Одна уже приличное время находится в нашем доступе, другая же была релизнута на этой неделе.

Принимайте стратегически удобное для прочтения положение, ну а я приступаю к сравнению.

Читать далее

Ближайшие события

На что кодинг-агенты тратят наши токены

Время на прочтение10 мин
Охват и читатели5.8K

На прошлой неделе я попросил Claude устранить однострочный баг. Ему понадобилось 23 тысячи токенов. Потом тот же баг я попросил устранить Gemini. Он потратил 350 тысяч токенов. Да уж, на такое невозможно закрывать глаза.

Поэтому я написал Context Lens — трассировщик контекста, перехватывающий вызовы LLM API, чтобы показать, что же на самом деле находится в окне контекста с разбивкой по этапам. Я подключил его к четырём инструментам кодинга и дал им одну и ту же задачу. Результаты оказались настолько разными, что я решил написать об этом статью.

Вопрос

При работе с этими моделями мы платим за токены. Токены — это довольно сложная тема. По сути, это блоки информации; 1 токен приблизительно равен 4 символам английского текста. Чем больше токенов передаётся в модель, тем больше мы платим.

Но важнее то, что токены составляют контекст модели. Контекст — это всё, что есть у модели при генерации ответа, своего рода её кратковременная память. Как и у людей, она ограничена. И чем больше нужно запоминать, тем хуже мы справляемся при ответе на детализированный вопрос.

Итак, нам нужно быть аккуратными с нашим окном контекста, а для построения этого окна используются токены. Я задался вопросом: как инструменты справляются с этим ограничением? Насколько умно они его обрабатывают?

Читать далее

Два процесса, одна задача (КК, Глава 1)

Уровень сложностиСредний
Время на прочтение16 мин
Охват и читатели4.6K

В результате долгих попыток упихнуть методологию разработки в телеграм-посты и Твиттер, пришел к выводу, что это невозможно. Слишком много информации, которую невозможно разрезать на мелкие куски.

Первая глава книги про AI-разработку - по ссылке. Прошу любить и жаловать :-)

Мы поговорим о том, почему отношения с нейросетью в формате «начальник → подчинённый» и «человек → инструмент» работают крайне отстойно. Введем модель сопроцессоров. Посмотрим, как устроено разделение когнитивной нагрузки в связке человек-машина. Что может только человек, что может только AI, и есть ли где-то пересечение.

Интересно! Читать далее

Что такое Skills и как их использовать? (Cursor, Claude Code)

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели4.9K

Вы наверняка ловили себя на том, что раз за разом копипастите в чат с ИИ одни и те же инструкции: «Пиши на TypeScript», «Не используй сторонние библиотеки», «Добавляй тесты». В программировании мы по сути называем это нарушением принципа DRY (Don't Repeat Yourself). Но почему мы продолжаем это делать при общении с нейросетями?

В этой статье мы разберем концепцию Skills (Скиллов) - переиспользуемых «навыков» для ИИ-ассистентов, которые живут прямо в вашем репозитории и делают работу агентов предсказуемой, чистой и профессиональной.

Читать далее

Часть 1: бизнес и стратегия

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели4.1K

«ИИ забирает у человека мотыгу и даёт ему пульт от дистанционно управляемого трактора».

Но в этом проекте пульт показал кое-что ещё: трактор ехал не туда, куда говорил водитель.

Этот проект — один из девяти в моём портфеле. Но он особенный, потому что демонстрирует три ключевых принципа моей работы:

Стратегия важнее технологии. Я выбрал поэтапный подход, а не «идеальное решение сразу» — и это спасло проект.

Финансовое мышление. Каждый технический риск я переводил на язык потерь и ROI. Это позволило защищать бюджеты и масштабировать решения.

Международный масштаб. Я доказал, что российский ИИ-руководитель может успешно внедрять проекты за рубежом, соблюдая местное законодательство и работая с локальными партнёрами.

Читаем далее

Как в Netflix масштабируют постобучение LLM

Время на прочтение15 мин
Охват и читатели4.5K

Благодаря предобучению, большие языковые модели (LLM) приобретают широкие лингвистические способности и общий «кругозор» о мире. Но постобучение — не менее важный этап, на котором они как раз усваивают конкретные намерения человека, ограничения, присущие предметной области, а также требования к надёжности, предъявляемые в продакшне. В  Netflix исследовали, как именно LLM могут открыть новые грани рекомендаций, персонализации и поиска. Для этого в Netflix попробовали адаптировать универсальные обобщённые модели к имеющимся условиям так, чтобы они лучше отражали содержание каталога фильмов и нюансы истории взаимодействия пользователей с сайтом. В масштабе такой компании как Netflix постобучение быстро превращается как в инженерную проблему, так и в проблему моделирования: приходится выстраивать сложные конвейеры данных и оперировать ими, координировать распределённое состояние в масштабах многоузловых кластеров GPU и оркестровать потоки задач, в рамках которых перемежаются обучение и логический вывод. В этой статье описаны архитектура и инженерная философия применяемого в Netflix фреймворка постобучения, который был разработан командой по платформе ИИ с целью скрыть сложность инфраструктуры — так, чтобы исследователи и разработчики моделей могли сосредоточиться на внедрении инноваций, а не на латании распределённых систем.

Читать далее

Рекап для разработчика: как я собрал итоги года на основе GitHub и self-hosted LLM

Время на прочтение23 мин
Охват и читатели6.9K

В конце года приложения все чаще подводят итоги пользовательской активности. Они показывают, сколько времени вы провели внутри сервиса, какие кнопочки нажимали чаще и на что вообще ушла жизнь. Один из самых удачных примеров — музыкальные сервисы. Там наглядно показано, сколько времени вы были панком и слушали рок, а сколько грустили под меланхоличный инди, кто для вас стал любимчиком и какой трек стал главным за год.

Подобные рекапы хорошо заходят, потому что дают возможность взглянуть на себя со стороны. Это некий способ осмыслить прошедший год, где-то улыбнуться, а где-то — испытать испанский стыд.

В этой статье попробуем сделать собственный рекап, но уже для разработчиков. Нужен инструмент, который показывал бы, сколько времени человек писал код, на каких технологиях работал, какие языки использовал и как в целом выглядел год с точки зрения коммитов и репозиториев. Подробности под катом.

Читать далее

Опыт разработки игры с помощью AI-агентов: процесс, ограничения и выводы

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели4.7K

За последний год вокруг вайбкодинга появилось много шума: статьи, видео, демки, эксперименты. Чаще всего это выглядит как «поиграться» — собрать что-то работающее за вечер и на этом остановиться.
Мне стало интересно другое: можно ли использовать AI-агентов для реальной разработки небольшого проекта, который не развалится по ходу работы и который можно довести до релиза.

В качестве хобби я поставил себе задачу сделать игру, используя AI как основного исполнителя, а человеку оставить постановку задач, декомпозицию, документацию и контроль результата. Без no-code платформ и визуальных конструкторов — обычный рабочий сетап.

В статье я подробно разбираю:
— как выстроил процесс работы с агентами
— зачем понадобились PROJECT_OVERVIEW, Epics и планы
— как управление контекстом и уровнем reasoning влияет на стабильность
— где подход начинает ломаться
— и для каких проектов он действительно имеет смысл

Читать далее
1
23 ...