使用 Anthropic、Vanna 托管向量数据库(推荐)为 Microsoft SQL Server 生成 SQL
本笔记本介绍了使用 vanna
Python 包通过 AI(RAG + LLMs)生成 SQL 的过程,包括连接到数据库和训练。如果您还没有准备好在自己的数据库上进行训练,仍然可以使用示例 SQLite 数据库 进行尝试。
您想使用哪种大型语言模型 (LLM)?
-
通过 Vanna.AI 使用 OpenAI(推荐)免费使用 Vanna.AI 生成您的查询
-
OpenAI使用您自己的 API 密钥使用 OpenAI
-
Azure OpenAI如果您在 Azure 上部署了 OpenAI 模型
-
[Selected] Anthropic使用您的 Anthropic API 密钥使用 Anthropic 的 Claude
-
Ollama在本地免费使用 Ollama。需要额外设置。
-
Google Gemini使用您的 Gemini 或 Vertex API 密钥使用 Google Gemini
-
通过 Mistral API 使用 Mistral如果您有 Mistral API 密钥
-
其他大型语言模型 (LLM)如果您有其他大型语言模型 (LLM) 模型
您想在哪里存储“训练”数据?
-
[Selected] Vanna 托管向量数据库(推荐)免费使用 Vanna.AI 的托管向量数据库 (pgvector)。这可以在不同机器上使用,无需额外设置。
-
ChromaDB在本地免费使用 ChromaDB 的开源向量数据库。无需额外设置——所有数据库文件都将在本地创建和存储。
-
Qdrant使用 Qdrant 的开源向量数据库
-
Marqo在本地免费使用 Marqo。需要额外设置。或者使用他们的托管选项。
-
其他向量数据库使用任何其他向量数据库。需要额外设置。
设置
%pip install 'vanna[anthropic]'
from vanna.vannadb import VannaDB_VectorStore
class MyVanna(VannaDB_VectorStore, Anthropic_Chat):
def __init__(self, config=None):
MY_VANNA_MODEL = # Your model name from https://vanna.org.cn/account/profile
VannaDB_VectorStore.__init__(self, vanna_model=MY_VANNA_MODEL, vanna_api_key=MY_VANNA_API_KEY, config=config)
Anthropic_Chat.__init__(self, config={'api_key': ANTHROPIC_API_KEY, 'model': ANTHROPIC_MODEL})
vn = MyVanna()
您想查询哪个数据库?
-
Postgres
-
[Selected] Microsoft SQL Server
-
MySQL
-
DuckDB
-
Snowflake
-
BigQuery
-
SQLite
-
Oracle
-
其他数据库使用 Vanna 为任何 SQL 数据库生成查询
vn.connect_to_mssql(odbc_conn_str='DRIVER={ODBC Driver 17 for SQL Server};SERVER=myserver;DATABASE=mydatabase;UID=myuser;PWD=mypassword') # You can use the ODBC connection string here
训练
您只需要训练一次。除非您想添加更多训练数据,否则无需再次训练。
# The information schema query may need some tweaking depending on your database. This is a good starting point.
df_information_schema = vn.run_sql("SELECT * FROM INFORMATION_SCHEMA.COLUMNS")
# This will break up the information schema into bite-sized chunks that can be referenced by the LLM
plan = vn.get_training_plan_generic(df_information_schema)
plan
# If you like the plan, then uncomment this and run it to train
# vn.train(plan=plan)
# The following are methods for adding training data. Make sure you modify the examples to match your database.
# DDL statements are powerful because they specify table names, colume names, types, and potentially relationships
vn.train(ddl="""
CREATE TABLE IF NOT EXISTS my-table (
id INT PRIMARY KEY,
name VARCHAR(100),
age INT
)
""")
# Sometimes you may want to add documentation about your business terminology or definitions.
vn.train(documentation="Our business defines OTIF score as the percentage of orders that are delivered on time and in full")
# You can also add SQL queries to your training data. This is useful if you have some queries already laying around. You can just copy and paste those from your editor to begin generating new SQL.
vn.train(sql="SELECT * FROM my-table WHERE name = 'John Doe'")
# At any time you can inspect what training data the package is able to reference
training_data = vn.get_training_data()
training_data
# You can remove training data if there's obsolete/incorrect information.
vn.remove_training_data(id='1-ddl')
```## Asking the AI
Whenever you ask a new question, it will find the 10 most relevant pieces of training data and use it as part of the LLM prompt to generate the SQL.
```python
vn.ask(question=...)
启动用户界面
from vanna.flask import VannaFlaskApp
app = VannaFlaskApp(vn)
app.run()