Читая HABR, наткнулся на статью про мышление больших моделей и их способности распознавания изображений. И у меня возникла идея небольшого теста одной имеющейся у меня модели LLM, которая умеет распозновать фото, а именно llama4:16x17b НО запущенной полностью локально.

Весит эта модель 67 гигабайт, если интересно на чем она была запущена отвечу в комментариях.

На написание статьи меня подвинул один из комментариев - "а как интересно нейросеть распознает разные типы животных"

Для теста я выбрал вот такую картинку
Для теста я выбрал вот такую картинку

Вопрос к модели был абсолютно простым:

Какие существа есть на картинке?

А ответ на удивление быстрым и лаконичным, всего за 30 секунд, покажу его скриншоты.

Для интересующихся, я запускаю модели ollama через open webui. Но иногда натыкаюсь на критику такой связки. Я не против критики, но только когда она конструктивна. Так что готов отвечать на любые вопросы того что я уже изучил в запуске LLM локально, а так же на обоснованную критику моих знаний и действий. )-;

Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.
Ваш опыт локального запуска LLM
12.5%Не верю в возможности ИИ2
62.5%Положительный10
0%Отрицательный0
25%Пока использую только облачные сервисы4
Проголосовали 16 пользователей. Воздержались 3 пользователя.