В llama.cpp сделали свой Automatic1111, ну то есть свой WebUI.
В отличие от картинок, тут нет ста тыщ параметров, поэтому все это больше похоже на Qwen Chat или chatGPT.
Точно также надо запустить свой сервак, вбить локальный адрес типа 127.0.0.1 в браузер и получить веб-интерфейс. И доступ к сотне тыщ открытых моделей. И да, можно загружать картинки или документы.
Инструкции тут: https://github.com/ggml-org/llama.cpp#hot-topics
@cgevent
В отличие от картинок, тут нет ста тыщ параметров, поэтому все это больше похоже на Qwen Chat или chatGPT.
Точно также надо запустить свой сервак, вбить локальный адрес типа 127.0.0.1 в браузер и получить веб-интерфейс. И доступ к сотне тыщ открытых моделей. И да, можно загружать картинки или документы.
Инструкции тут: https://github.com/ggml-org/llama.cpp#hot-topics
@cgevent