feedback
В llama.cpp сделали свой Automatic1111, ну то есть свой WebUI.

В отличие от картинок, тут нет ста тыщ параметров, поэтому все это больше похоже на Qwen Chat или chatGPT.

Точно также надо запустить свой сервак, вбить локальный адрес типа 127.0.0.1 в браузер и получить веб-интерфейс. И доступ к сотне тыщ открытых моделей. И да, можно загружать картинки или документы.

Инструкции тут: https://github.com/ggml-org/llama.cpp#hot-topics

@cgevent
Link copied