作者构建了一个完全在用户计算机上运行的个人AI助手,具有语音支持、文档理解和记忆功能,不依赖云或API密钥。该助手使用Ollama的本地模型,可以理解上传的文档,记住对话内容,并以语音输出进行回复。它可以通过简单的UI定制个性,并在一个简洁的Streamlit界面中运行。技术栈包括LangChain、Python、Ollama、FAISS、PyPDFLoader、TextLoader、SpeechRecognition、pyttsx3和Streamlit。提供了一个助手的演示,并且可以通过GitHub上的开源代码进行设置。助手将对话以JSON格式保存到磁盘,并可以使用FAISS从上传的文档中检索相关上下文。它还支持语音输入和输出,用户可以使用系统提示修改其语气。作者学习了如何从头开始构建一个完整的离线AI助手,集成语音识别和TTS,并使用LangChain处理多轮记忆。未来的功能包括多文件上传支持、文档摘要、对话导出和局域网部署。该项目完全开源,用户可以通过安装Python、Ollama和一个模型,并从GitHub仓库设置代码来尝试它。
dev.to
How I Built a Local, Voice-Enabled AI Chatbot with LangChain and Ollama
Create attached notes ...
