RSS Richtung Data Science - Medium

llama.cpp: Schreiben eines einfachen C++-Inferenzprogramms für GGUF-LLM-Modelle

Llama.cpp ist ein C/C++-Framework zum Ableiten von maschinellen Lernalgorithmen im GGUF-Format auf mehreren Ausführungs-Backends. Es wurde erstellt, um LLMs von Meta auf Apples Silizium, AVX/AVX-512, CUDA und Arm-Neon-basierten Umgebungen abzuleiten. Llama.cpp verwendet ggml, ein Low-Level-Framework, das primitive Funktionen bereitstellt, die von Deep-Learning-Modellen benötigt werden, und die Implementierungsdetails des Backends vom Benutzer abstrahiert. Das Projekt hat keine Abhängigkeiten von anderen Drittanbieter-Bibliotheken, was es leicht und effizient macht. Dieses Tutorial erkundet die internen Abläufe von llama.cpp und erstellt ein grundlegendes Chat-Programm mithilfe von Low-Level-Funktionen aus llama.cpp. Der in diesem Tutorial geschriebene C++-Code wird auch in SmolChat verwendet, einer nativen Android-Anwendung, die es Benutzern ermöglicht, mit LLMs/SLMs in einer Chat-Oberfläche auf dem Gerät zu interagieren. Das Tutorial behandelt den Programmablauf, llama.cpp-Konstrukte und erstellt ein einfaches Chat-Programm. Der Code für dieses Tutorial ist auf GitHub verfügbar. Llama.cpp unterscheidet sich von PyTorch/TensorFlow dadurch, dass es sich ausschließlich auf die Inferenz konzentriert, während PyTorch und TensorFlow umfassende Lösungen bieten, die Datenverarbeitung, Modelltraining/Validierung und effiziente Inferenz in einem Paket anbieten. Durch die Verwendung von llama.cpp können Entwickler effiziente und leichte Inferenz-Only-Lösungen für ihre maschinellen Lernalgorithmen erstellen.
favicon
bsky.app
AI and ML News on Bluesky @ai-news.at.thenote.app
favicon
towardsdatascience.com
llama.cpp: Writing A Simple C++ Inference Program for GGUF LLM Models
Create attached notes ...