Claude/GPT n'ont pas accès à tes manuels d'entreprise, contrats, base de connaissances. RAG résout ce problème en injectant les docs pertinents dans le prompt.
from langchain_community.vectorstores import Chroma
from langchain_openai import OpenAIEmbeddings
# 1-3. Ingestion + embedding + storage
vectorstore = Chroma.from_documents(documents=docs, embedding=OpenAIEmbeddings())
# 4. Retrieval
retriever = vectorstore.as_retriever(search_kwargs={'k': 5})
# 5. Generation
rag_chain = ({'context': retriever, 'question': RunnablePassthrough()} | prompt | llm)
response = rag_chain.invoke('Quelle est la politique de remboursement ?')