Journal décrire une une image avec une iA locale

8
8
mai
2024

Aujourd'hui c'est fourien™, petit tuto sans prétention!

Pour décrire des images en utilisant une iA localement j'utilise LLaVA qui fait partie de LLaMA C++ (llama.cpp)

prérequis :

  • créer un dossier image_summary et ses sous dossiers
    mkdir -p image_summary/bin image_summary/models image_summary/data/img image_summary/data/txt

  • créer un venv (j'utilise Python 3.10.6)
    python -m venv ./image_summary/venv/

  • activer l'environnement
    source ./image_summary/venv/bin/activate

  • mettre à jour pip
    pip install --upgrade pip

  • installer les dépendances
    pip install 'glob2==0.7'

  • désactiver l'environnement
    deactivate

Lien Pour Linus Torvalds, voir toute cette hype sur l'IA c'est hilarant 🍿

Posté par  .
8
22
avr.
2024

Journal Traduction : Aux sources du complotisme

12
22
avr.
2024

Contexte

Dans cet article C. Doctorow se base sur son expérience personnelle parallèle à celle des anti-vax pour identifier une origine originale du phénomène complotiste et en proposer une analyse singulière. Les complotisme en tout genre produisant régulièrement des résurgences sur Linuxfr, il m'a semblé intéressant d'en proposer une traduction ici.

Traduction

Conspirationnisme et crise de la connaissance

L’an passé, Ed Pierson devait prendre un vol Alaska Airlines de Seattle au New Jersey. Il embarqua, puis il s’est empressé de (…)

Journal ollama et le GPU

Posté par  . Licence CC By‑SA.
5
16
avr.
2024

Bonjour à tous,

lors d'un précédent journal concernant les LLM, poulpatine m'a fait remarquer que je faisais erreur en affirmant que ollama ne fonctionne pas avec les GPU sous linux.
En effet j'avais tort. Enfin, en partie; je m'explique:
- en passant par l'installation standard de ollama, ollama tourne via un service systemd. Dans ce cas, le GPU n'est pas utilisé.
- par contre, en lançant un serveur ollama via une commande ollama serve, l'inférence utilise parfaitement (…)