使用 Azure OpenAI、ChromaDB 为 SQLite 生成 SQL
本笔记本介绍了如何使用 vanna
Python 包通过 AI(RAG + 大型语言模型)生成 SQL,包括连接到数据库和进行训练。如果您还没准备好在自己的数据库上进行训练,仍然可以使用示例 SQLite 数据库进行尝试。
您想使用哪种大型语言模型?
-
OpenAI使用您自己的 API 密钥使用 OpenAI
-
[已选择] Azure OpenAI如果您在 Azure 上部署了 OpenAI 模型
-
Anthropic使用您的 Anthropic API 密钥使用 Anthropic Claude
-
Ollama免费在本地使用 Ollama。需要额外设置。
-
Google Gemini使用您的 Gemini 或 Vertex API 密钥使用 Google Gemini
-
通过 Mistral API 使用 Mistral如果您有 Mistral API 密钥
-
其他大型语言模型如果您有其他大型语言模型
您想将“训练”数据存储在哪里?
-
[已选择] ChromaDB免费在本地使用 ChromaDB 的开源向量数据库。无需额外设置 -- 所有数据库文件都将在本地创建和存储。
-
Qdrant使用 Qdrant 的开源向量数据库
-
Marqo免费在本地使用 Marqo。需要额外设置。或者使用他们的托管选项。
-
其他向量数据库使用任何其他向量数据库。需要额外设置。
设置
%pip install 'vanna[chromadb,openai]'
from vanna.openai import OpenAI_Chat
from openai import AzureOpenAI
from vanna.chromadb import ChromaDB_VectorStore
class MyVanna(ChromaDB_VectorStore, OpenAI_Chat):
def __init__(self, config=None):
ChromaDB_VectorStore.__init__(self, config=config)
OpenAI_Chat.__init__(self, client=AzureOpenAI(...), config=config) # Make sure to put your AzureOpenAI client here
vn = MyVanna(config={'model': 'gpt-4-...'})
您想查询哪个数据库?
-
Postgres
-
Microsoft SQL Server
-
MySQL
-
DuckDB
-
Snowflake
-
BigQuery
-
[已选择] SQLite
-
Oracle
-
其他数据库使用 Vanna 为任何 SQL 数据库生成查询
vn.connect_to_sqlite('my-database.sqlite')
训练
只需训练一次。除非您想添加更多训练数据,否则不要重复训练。
df_ddl = vn.run_sql("SELECT type, sql FROM sqlite_master WHERE sql is not null")
for ddl in df_ddl['sql'].to_list():
vn.train(ddl=ddl)
# The following are methods for adding training data. Make sure you modify the examples to match your database.
# DDL statements are powerful because they specify table names, colume names, types, and potentially relationships
vn.train(ddl="""
CREATE TABLE IF NOT EXISTS my-table (
id INT PRIMARY KEY,
name VARCHAR(100),
age INT
)
""")
# Sometimes you may want to add documentation about your business terminology or definitions.
vn.train(documentation="Our business defines OTIF score as the percentage of orders that are delivered on time and in full")
# You can also add SQL queries to your training data. This is useful if you have some queries already laying around. You can just copy and paste those from your editor to begin generating new SQL.
vn.train(sql="SELECT * FROM my-table WHERE name = 'John Doe'")
# At any time you can inspect what training data the package is able to reference
training_data = vn.get_training_data()
training_data
# You can remove training data if there's obsolete/incorrect information.
vn.remove_training_data(id='1-ddl')
```## Asking the AI
Whenever you ask a new question, it will find the 10 most relevant pieces of training data and use it as part of the LLM prompt to generate the SQL.
```python
vn.ask(question=...)
启动用户界面
from vanna.flask import VannaFlaskApp
app = VannaFlaskApp(vn)
app.run()