百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Oracle SelectAI RAG - 数据库自动化RAG整个过程

ccwgpt 2025-03-06 12:49 70 浏览 0 评论

RAG的过程

实现一个RAG,自己需要写代码实现这样的两个阶段:

  1. 数据加载阶段:文件加载 -> 文件分片 -> 内容向量化 -> 存入向量库 -> 建立向量索引
  2. 检索阶段:用户问题 -> 向量化用户问题 -> 向量语议检索出相关内容 -> 问题增强(提示词) -> 提交给大语言模型 -> 返回结果。

Oracle 23ai RAG

RAG是一个面向数据的检索方法,因此,由数据层面的基础设施完成数据相关的工作是比较合理的。

Oracle 23ai 推出了 SelectAI RAG,用户不再需要写代码就可以实现整个RAG的过程,直接用SQL语句就可以返回RAG的结果:

详细配置步骤

主要包括以下这些步骤(前面六步是数据加载(Data Loading)的配置)。

  1. Data Loading Step1: Whitelist the provider for API access
BEGIN
   -- allow connecting to outside hosts
    DBMS_NETWORK_ACL_ADMIN.APPEND_HOST_ACE(
        host => '*',
        ace => xs$ace_type(privilege_list => xs$name_list('connect'),
                           principal_name => 'OUSER',
                           principal_type => xs_acl.ptype_db));
END;
/
  1. Data Loading Step2: Create Credential for Vector Embedding
declare
  jo json_object_t;
begin
  jo := json_object_t();
  jo.put('user_ocid','ocid1.user.oc1..aaaaaaaaxxxxxxx');
  jo.put('tenancy_ocid','ocid1.tenancy.oc1..aaaaaaaaxxxxxx');
  jo.put('compartment_ocid','ocid1.compartment.oc1..aaaaaaaapxxxxxxx');
  jo.put('private_key','private key content string');
  jo.put('fingerprint’,’xx:xx:xx:…');

  dbms_vector.create_credential(
    credential_name   => 'VECTOR_OCI_GENAI_CRED',
    params            => json(jo.to_string));
end;
/
  1. Data Loading Step3: Create Embedding Profile
BEGIN
  DBMS_CLOUD_AI.CREATE_PROFILE(
    profile_name => 'OCI_TEXT_TRANSFORMER',
    attributes   => '{"provider": "oci",
                      "credential_name": "VECTOR_OCI_GENAI_CRED",
                      "embedding_model": "cohere.embed-multilingual-v3.0",
                      "oci_compartment_id": "ocid1.compartment.oc1..aaaaaaaa…",
                      "region": "us-chicago-1"
                      }');
END;
/
  1. Data Loading Step4: Create Credential for Object Storage and OCI LLM Service
begin
    DBMS_CLOUD.CREATE_CREDENTIAL (
      credential_name => 'OCI_GENAI_CRED',
      user_ocid => 'ocid1.user.oc1..aaaaaaaaxxxxxx',
      tenancy_ocid => 'ocid1.tenancy.oc1..aaaaaaaaxxxxxx',
      private_key => 'private key string',
      fingerprint => 'xx:xx:xx……' );
end;
/
  1. Data Loading Step5: Create Vector Index For Files in Object Storage
BEGIN
  DBMS_CLOUD_AI.CREATE_VECTOR_INDEX(
    index_name  => 'DEMO_VECTOR_INDEX',
    attributes  => '{"vector_db_provider": "oracle",
                     "location": "https://objectstorage.{region}.oraclecloud.com/n/{namespace}/b/{bucket}/o/{folder}",
                     "object_storage_credential_name": "OCI_GENAI_CRED",
                     "profile_name": "OCI_TEXT_TRANSFORMER",
                     "vector_dimension": 1024,
                     "vector_distance_metric": "cosine",
                     "chunk_overlap":128,
                     "chunk_size":1024,
                     "refresh_rate":120}');
END;
/
-- refresh_rate 这里设成了120分钟,表示每隔2小时数据库会自动检查对象存储中的内容变化及自动更新数据
  1. Data Loading Step6: Create SelectAI Profile
BEGIN
  DBMS_CLOUD_AI.CREATE_PROFILE(
    profile_name => 'PROFILE_OCI_SELECTAI_RAG_LLAMA33_70B',
    attributes   => '{"provider": "oci",
                      "credential_name": "OCI_GENAI_CRED",
                      "vector_index_name": "DEMO_VECTOR_INDEX",
                      "temperature": 0,
                      "max_tokens": 4000,
                      "model": "meta.llama-3.3-70b-instruct",
                      "embedding_model": "cohere.embed-multilingual-v3.0",
                      "oci_compartment_id": "ocid1.compartment.oc1..aaaaaaaa…",
                      "region": "us-chicago-1",
                      "enable_sources": true }');
END;
/

完成前面六步数据加载的配置后,上传相关的一些文档到指定的对象存储目录,就可以通过SQL语句直接查询RAG结果了,比如:

“什么是 ADB Schema Advisor?” 这个问题,通过 SQL 可以直接查看:

EXEC DBMS_CLOUD_AI.SET_PROFILE('PROFILE_OCI_SELECTAI_RAG_LLAMA33_70B’);
                               
SELECT AI NARRATE '什么是 ADB Schema Advisor?’;

得到如下结果:

非常简单方便,数据库直接帮我们做了整个RAG的过程,应用程序就只要像执行传统的SQL一样获取结果就行了。

相关推荐

想快速上手Python网络爬虫?这份实战指南你不能错过!

以下是关于Python网络爬虫实战的详细指南,涵盖基础知识、常用工具、实战案例及注意事项:一、爬虫基础概念1.什么是网络爬虫?o通过自动化程序从网页上抓取并提取数据的工具。o核心步骤:请求网...

python爬虫怎么副业接单

其实这个问题也挺重要的,花了时间花了经历去学了python爬虫,本想靠着这个技能去补贴家用或者挣点零花钱,但是发现有时候的单子是自己力所不能及的,有的东西真的是不会,又或者不知从何下手。那么这篇文章主...

用Python写了一个图像文字识别OCR工具

人生苦短,快学Python!在之前的文章里,我们多次尝试用Python实现文本OCR识别!今天我们要搞一个升级版:直接写一个图像文字识别OCR工具!引言最近在技术交流群里聊到一个关于图像文字识别的...

taskPyro:为 Python 任务与爬虫插上自动化翅膀的开源利器

在数据驱动的时代,无论是数据采集、ETL流程,还是定期的系统维护脚本,高效、可靠的任务调度成为了许多开发者和运维人员的刚需。特别是对于Python开发者而言,如何优雅地管理和调度日益增多的爬虫任...

网络爬虫:Python动态网页爬虫2种技术方式及示例

作者:糖甜甜甜https://mp.weixin.qq.com/s/5Dwh5cbfjpDfm_FRcpw1Ug这一讲,我将会为大家讲解稍微复杂一点的爬虫,即动态网页的爬虫。动态网页技术介绍动态网页爬...

30个小时搞定Python网络爬虫(全套详细版)

【课程介绍】适用人群1、零基础对Python网络爬虫感兴趣的学员2、想从事Python网络爬虫工程师相关工作的学员3、想学习Python网络爬虫作为技术储备的学员课程目标1、本课程的目标是将大家培养成...

python爬虫常用工具库总结

说起爬虫,大家可能第一时间想到的是python,今天就简单为大家介绍下pyhton常用的一些库。请求库:实现基础Http操作urllib:python内置基本库,实现了一系列用于操作url的功能。...

玛森:Python爬虫书籍推荐

  Python爬虫书籍推荐什么?玛森科技徐老师介绍,网络爬虫现在很火,不管业内人士或业外人士,大家对爬虫或多或少都有一些了解,网络爬虫通俗的讲,就是通过程序去互联网上面爬取想要的内容,并且爬取的过程...

如何入门python爬虫?

1.很多人一上来就要爬虫,其实没有弄明白要用爬虫做什么,最后学完了却用不上。大多数人其实是不需要去学习爬虫的,因为工作所在的公司里有自己的数据库,里面就有数据来帮助你完成业务分析。什么时候要用到爬虫呢...

爬虫修炼手册,Python爬虫学习入门Scrapy

爬虫就如同江湖中的神秘侠客,应运而生,成为了我们获取数据的得力助手。爬虫,正式名称是网络爬虫(WebCrawler),也被叫做网页蜘蛛、网络机器人,它是一段神奇的计算机代码,能够自动在互联网的信息...

如何入门 Python 爬虫?

1.很多人一上来就要爬虫,其实没有弄明白要用爬虫做什么,最后学完了却用不上。大多数人其实是不需要去学习爬虫的,因为工作所在的公司里有自己的数据库,里面就有数据来帮助你完成业务分析。什么时候要用到爬虫呢...

有了这4张思维导图,带你Python(爬虫)轻松入门

刚接触Python爬虫,该怎么学更有效?指南君给大家带来了这四张思维导图。非常适合刚开始学Python爬虫的同学用于回顾知识点、巩固学习情况等。话不多说,快来学习Python爬虫入门的最强干货吧!P...

python爬虫教程之爬取当当网 Top 500 本五星好评书籍

我们使用requests和re来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前500本好五星评书籍怎么样?ok接下来就是学习python的正确姿...

超实用!Python 在爬虫和自动化领域的 8 类工具与技术大盘点

Python在爬虫和自动化领域拥有丰富的工具库和框架,以下是一些常用工具和技术的分类整理,帮助你高效实现数据抓取和自动化任务:1.基础HTTP请求库oRequestso简洁的HTTP库...

学习Python的第四天之网络爬虫

30岁程序员学习Python的第四天之网络爬虫的Scrapy库Scrapy库的基本信息Scrapy库的安装在windows系统中通过管理员权限打开cmd。运行pipinstallscrapy即可安...

取消回复欢迎 发表评论: