AI驱动TDSQL-C Serverless 数据库技术实战营-与AI的碰撞

金歌  金牌会员 | 2024-10-2 02:45:00 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 863|帖子 863|积分 2589

目录
一、简介
二、实验先容
三、效果展示
四、实操引导
4.1 系统计划
4.2 环境搭建(手把手教程)
4.3 应用构建
4.4 效果展示
4.5 踩坑避雷总结
五、清算资源
5.1 删除TDSQL-C Serverless
5.2 删除 HAI 算力
六、实验总结归纳
一、简介

本文紧张先容的是AI驱动的数据库TDSQL-C 操纵与电商可视分析。在当今期间,人工智能技术的广泛应用正以其卓越的数据处置惩罚能力,为电子商务行业带来革命性的厘革。AI技术不仅极大提升了运营流程的服从,更在个性化推荐、用户举动分析、库存管理和市场趋势猜测等电商焦点范畴展现出了不可替代的数据分析上风。在这样的大配景下,打造一个既高效又可靠的AI电商数据分析系统,已经成为行业发展的关键任务。这一系统将能够精准捕获消费者需求,优化库存战略,并猜测市场动向,从而为企业在激烈的市场竞争中赢得先机。
这次的服务大家紧张是通过 Python 编程语言和基于 Langchain 的框架,逐步引导开辟者完成系统的构建和摆设。对于没有开辟经验的友友们来说,只要安装按照文章步调来操纵也是没有问题的哦!
二、实验先容

实验紧张是利用腾讯云的高性能应用服务——HAI(高性能AI服务)TDSQL-C MySQL Serverless版,来构建一个先进的AI电商数据分析办理方案。
   HAI,作为一款专为AI和科学计算量身定制的GPU应用服务,具备强大的计算肌肉,能够轻松处置惩罚包括大型语言模型(LLM)在内的复杂AI模型,实现快速摆设和高效运行,为自然语言处置惩罚和图像生成等尖端应用提供强大动力。
  TDSQL-C MySQL版,云原生关系型数据库,以其原生的云架构和对MySQL的100%兼容特性,提供了无与伦比的弹性、卓越的性能和稳固的可用性。这些特性使得TDSQL-C MySQL版电商范畴海量数据存储和查询的不二之选,尤其适合处置惩罚高强度的业务场景。
   接下来让我们基于TDSQL-C Mysql Serverless 快速搭建 AI电商数据分析系统,紧张是构建流程为:
   1、步伐流程图计划
  2、TDSQL-C Mysql Serverless 搭建
  3、HAI llama 大模型摆设
  4、开辟环境搭建
  5、AI电商数据分析系统构建
  三、效果展示



四、实操引导

看完前面的先容之后,开始实验操纵之前,需要准备好一些开辟环境,不然可能会像我一样,Python软件的版本和实验环境版本不同等,防止环境搭建出问题,还是先下载好实验推荐的版本Python 3.10.11版本的,官网下载就行(下面会写下载安装详细流程)。
4.1 系统计划


4.2 环境搭建(手把手教程)

4.2.1 购买 TDSQL-C Mysql Serverless 实例

1、在腾讯云官网申请 TDSQL-C Mysql 服务器
官方地址为:https://cloud.tencent.com/product/tdsqlc
 点击立即选购。

2、根据图表信息选定相应的服务器

我们在选择网络的时候没有私网的会加载不出来,这个时候我们需要自己新建网络,点击图片中的新建子网络:

3、新建子网络
然后我们开始创建自己的字网络:可以参照我的选择,ip地址和子网,也可以根据自己的来界说都行,可用区是选择自己所在区域。

然后点击确定,我们就可以看到我们自己的私有网络啦

然后回到服务器申请界面继承操纵,然后就能选择我们自己的私有网络了。


然后点击下一步。
4、设置数据库暗码与设置信息
然后这里紧张是要设置数据库暗码,这里的暗码根据要求设置就行,设置完之后只管备份一下,后面登录数据库是需要用到的。

 5、点击立即购买
点击的时候会跳出套餐的价格,这个一般我们测试搭建的话,上面的费用显示都是一样,而且也不消担心,会扣费,但是扣的一点都不多,以是可以大胆选择。

6、前往数据库管理界面
购买完成之后,前往数据库管理界面。

7、管理页面中选择指定区域的 TDSQL-C Mysql 服务器
到管理界面,我们可以看到我们已经购买的服务器,左上角可以选择已经购买的不同区域的服务器,服务器下会展示的区域后面的数字表示已经购买的服务器的数量。

8、点击开启实例公网访问

  9、授权并创建

授权并创建之后,记得备份外主机和端口信息,后面搭建的时候设置需要用到这个信息。
10、登录在线管理工具
  

11、新建数据库:shop


选择新建的数据库shop

12、导入数据表
选择shop数据库,然后点击新建SQL查询窗口。

将以下SQL复制到SQL执行窗口,确保当前数据库选中 shop,然后点击执行。
  1. CREATE TABLE `ecommerce_sales_stats` (
  2.   `category_id` int NOT NULL COMMENT '分类ID(主键)',
  3.   `category_name` varchar(100) NOT NULL COMMENT '分类名称',
  4.   `total_sales` decimal(15,2) NOT NULL COMMENT '总销售额',
  5.   `steam_sales` decimal(15,2) NOT NULL COMMENT 'Steam平台销售额',
  6.   `offline_sales` decimal(15,2) NOT NULL COMMENT '线下实体销售额',
  7.   `official_online_sales` decimal(15,2) NOT NULL COMMENT '官方在线销售额',
  8.   PRIMARY KEY (`category_id`)
  9. ) ENGINE=INNODB DEFAULT CHARSET=utf8mb4 AUTO_INCREMENT=1 COMMENT='电商分类销售统计表';
  10. INSERT INTO `ecommerce_sales_stats` VALUES (1,'电子产品',150000.00,80000.00,30000.00,40000.00),(2,'服装',120000.00,20000.00,60000.00,40000.00),(3,'家居用品',90000.00,10000.00,50000.00,30000.00),(4,'玩具',60000.00,5000.00,30000.00,25000.00),(5,'书籍',45000.00,2000.00,20000.00,23000.00),(6,'运动器材',70000.00,15000.00,25000.00,30000.00),(7,'美容护肤',80000.00,10000.00,30000.00,40000.00),(8,'食品',50000.00,5000.00,25000.00,20000.00),(9,'珠宝首饰',30000.00,2000.00,10000.00,18000.00),(10,'汽车配件',40000.00,10000.00,15000.00,25000.00),(11,'手机配件',75000.00,30000.00,20000.00,25000.00),(12,'电脑配件',85000.00,50000.00,15000.00,20000.00),(13,'摄影器材',50000.00,20000.00,15000.00,15000.00),(14,'家电',120000.00,60000.00,30000.00,30000.00),(15,'宠物用品',30000.00,3000.00,12000.00,16800.00),(16,'母婴用品',70000.00,10000.00,30000.00,30000.00),(17,'旅行用品',40000.00,5000.00,15000.00,20000.00),(18,'艺术品',25000.00,1000.00,10000.00,14000.00),(19,'健康产品',60000.00,8000.00,25000.00,27000.00),(20,'办公用品',55000.00,2000.00,20000.00,33000.00);
  11. CREATE TABLE `users` (
  12.   `user_id` int NOT NULL AUTO_INCREMENT COMMENT '用户ID(主键,自增)',
  13.   `full_name` varchar(100) NOT NULL COMMENT '用户全名',
  14.   `username` varchar(50) NOT NULL COMMENT '用户名',
  15.   `email` varchar(100) NOT NULL COMMENT '用户邮箱',
  16.   `password_hash` varchar(255) NOT NULL COMMENT '用户密码的哈希值',
  17.   `created_at` datetime DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',
  18.   `updated_at` datetime DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间',
  19.   `is_active` tinyint(1) DEFAULT '1' COMMENT '是否激活',
  20.   PRIMARY KEY (`user_id`),
  21.   UNIQUE KEY `email` (`email`)
  22. ) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8mb4  COMMENT='用户表';
  23. INSERT INTO `users` VALUES (1,'张伟','zhangwei','zhangwei@example.com','hashed_password_1','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(2,'李娜','lina','lina@example.com','hashed_password_2','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(3,'王芳','wangfang','wangfang@example.com','hashed_password_3','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(4,'刘洋','liuyang','liuyang@example.com','hashed_password_4','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(5,'陈杰','chenjie','chenjie@example.com','hashed_password_5','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(6,'杨静','yangjing','yangjing@example.com','hashed_password_6','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(7,'赵强','zhaoqiang','zhaoqiang@example.com','hashed_password_7','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(8,'黄丽','huangli','huangli@example.com','hashed_password_8','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(9,'周杰','zhoujie','zhoujie@example.com','hashed_password_9','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(10,'吴敏','wumin','wumin@example.com','hashed_password_10','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(11,'郑伟','zhengwei','zhengwei@example.com','hashed_password_11','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(12,'冯婷','fengting','fengting@example.com','hashed_password_12','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(13,'蔡明','caiming','caiming@example.com','hashed_password_13','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(14,'潘雪','panxue','panxue@example.com','hashed_password_14','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(15,'蒋磊','jianglei','jianglei@example.com','hashed_password_15','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(16,'陆佳','lujia','lujia@example.com','hashed_password_16','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(17,'邓超','dengchao','dengchao@example.com','hashed_password_17','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(18,'任丽','renli','renli@example.com','hashed_password_18','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(19,'彭涛','pengtao','pengtao@example.com','hashed_password_19','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(20,'方圆','fangyuan','fangyuan@example.com','hashed_password_20','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(21,'段飞','duanfei','duanfei@example.com','hashed_password_21','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(22,'雷鸣','leiming','leiming@example.com','hashed_password_22','2024-08-18 04:07:18','2024-08-18 04:07:18',1),(23,'贾玲','jialing','jialing@example.com','hashed_password_23','2024-08-18 04:07:18','2024-08-18 04:07:18',1);
  24. CREATE TABLE `orders` (
  25.   `order_id` int NOT NULL AUTO_INCREMENT,
  26.   `user_id` int DEFAULT NULL,
  27.   `order_amount` decimal(10,2) DEFAULT NULL,
  28.   `order_status` varchar(20) DEFAULT NULL,
  29.   `order_time` datetime DEFAULT NULL,
  30.   PRIMARY KEY (`order_id`)
  31. ) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8mb4 ;
  32. INSERT INTO `orders` VALUES (1,3,150.50,'已支付','2024-08-23 10:01:00'),(2,7,89.20,'待支付','2024-08-23 10:03:15'),(3,12,230.00,'已支付','2024-08-23 10:05:30'),(4,2,99.90,'已发货','2024-08-23 10:07:45'),(5,15,120.00,'待发货','2024-08-23 10:10:00'),(6,21,180.50,'已支付','2024-08-23 10:12:15'),(7,4,105.80,'待支付','2024-08-23 10:14:30'),(8,18,210.00,'已支付','2024-08-23 10:16:45'),(9,6,135.20,'已发货','2024-08-23 10:19:00'),(10,10,160.00,'待发货','2024-08-23 10:21:15'),(11,1,110.50,'已支付','2024-08-23 10:23:30'),(12,22,170.80,'待支付','2024-08-23 10:25:45'),(13,8,145.20,'已发货','2024-08-23 10:28:00'),(14,16,190.00,'待发货','2024-08-23 10:30:15'),(15,11,125.50,'已支付','2024-08-23 10:32:30'),(16,19,165.20,'待支付','2024-08-23 10:34:45'),(17,5,130.00,'已发货','2024-08-23 10:37:00'),(18,20,175.80,'待发货','2024-08-23 10:39:15'),(19,13,140.50,'已支付','2024-08-23 10:41:30'),(20,14,155.20,'待支付','2024-08-23 10:43:45'),(21,9,135.50,'已发货','2024-08-23 10:46:00'),(22,23,185.80,'待发货','2024-08-23 10:48:15'),(23,17,160.50,'已支付','2024-08-23 10:50:30'),(24,12,145.20,'待支付','2024-08-23 10:52:45'),(25,3,130.00,'已发货','2024-08-23 10:55:00'),(26,8,115.50,'已支付','2024-08-23 10:57:15'),(27,19,120.20,'待支付','2024-08-23 10:59:30'),(28,6,145.50,'已发货','2024-08-23 11:01:45'),(29,14,130.20,'待支付','2024-08-23 11:04:00'),(30,5,125.50,'已支付','2024-08-23 11:06:15'),(31,21,135.20,'待支付','2024-08-23 11:08:30'),(32,7,140.50,'已发货','2024-08-23 11:10:45'),(33,16,120.20,'待支付','2024-08-23 11:13:00'),(34,10,135.50,'已支付','2024-08-23 11:15:15'),(35,2,140.20,'待支付','2024-08-23 11:17:30'),(36,12,145.20,'待支付','2024-08-23 12:00:00'),(37,15,130.20,'已支付','2024-08-23 12:02:15'),(38,20,125.50,'待发货','2024-08-23 12:04:30'),(39,17,135.20,'已支付','2024-08-23 12:06:45'),(40,4,140.50,'待支付','2024-08-23 12:09:00'),(41,10,120.20,'已发货','2024-08-23 12:11:15'),(42,13,135.50,'已支付','2024-08-23 12:13:30'),(43,18,145.20,'待支付','2024-08-23 12:15:45'),(44,6,130.20,'已发货','2024-08-23 12:18:00'),(45,11,125.50,'已支付','2024-08-23 12:20:15'),(46,19,135.20,'待支付','2024-08-23 12:22:30'),(47,5,140.50,'已发货','2024-08-23 12:24:45'),(48,20,120.20,'待支付','2024-08-23 12:27:00'),(49,17,135.50,'已支付','2024-08-23 12:29:15'),(50,4,145.20,'待支付','2024-08-23 12:31:30'),(51,10,130.20,'已发货','2024-08-23 12:33:45'),(52,13,125.50,'已支付','2024-08-23 12:36:00'),(53,18,135.20,'待支付','2024-08-23 12:38:15'),(54,6,140.50,'已发货','2024-08-23 12:40:30'),(55,11,120.20,'待支付','2024-08-23 12:42:45'),(56,19,135.50,'已支付','2024-08-23 12:45:00'),(57,5,145.20,'待支付','2024-08-23 12:47:15'),(58,20,130.20,'已发货','2024-08-23 12:49:30'),(59,17,125.50,'已支付','2024-08-23 13:01:45'),(60,4,135.20,'待支付','2024-08-23 13:04:00'),(61,10,140.50,'已发货','2024-08-23 13:06:15'),(62,13,120.20,'待支付','2024-08-23 13:08:30'),(63,18,135.50,'已支付','2024-08-23 13:10:45'),(64,6,145.20,'待支付','2024-08-23 13:13:00'),(65,11,130.20,'已发货','2024-08-23 13:15:15'),(66,19,125.50,'已支付','2024-08-23 13:17:30'),(67,5,135.20,'待支付','2024-08-23 13:19:45'),(68,20,140.50,'已发货','2024-08-23 13:22:00'),(69,17,120.20,'待支付','2024-08-23 13:24:15'),(70,4,135.50,'已支付','2024-08-23 13:26:30'),(71,10,145.20,'待支付','2024-08-23 13:28:45'),(72,13,130.20,'已发货','2024-08-23 13:31:00'),(73,18,125.50,'已支付','2024-08-23 13:33:15'),(74,6,135.20,'待支付','2024-08-23 13:35:30'),(75,11,140.50,'已发货','2024-08-23 13:37:45'),(76,19,120.20,'待支付','2024-08-23 13:40:00'),(77,5,135.50,'已支付','2024-08-23 13:42:15'),(78,20,145.20,'待支付','2024-08-23 13:44:30'),(79,17,130.20,'已发货','2024-08-23 13:46:45'),(80,4,125.50,'已支付','2024-08-23 13:49:00'),(81,10,135.20,'待支付','2024-08-23 13:51:15'),(82,13,140.50,'已发货','2024-08-23 13:53:30'),(83,18,120.20,'待支付','2024-08-23 13:55:45'),(84,6,135.50,'已支付','2024-08-23 13:58:00'),(85,11,145.20,'待支付','2024-08-23 14:00:15'),(86,19,130.20,'已发货','2024-08-23 14:02:30'),(87,5,125.50,'已支付','2024-08-23 14:04:45'),(88,20,135.20,'待支付','2024-08-23 14:07:00'),(89,17,140.50,'已发货','2024-08-23 14:09:15'),(90,4,120.20,'待支付','2024-08-23 14:11:30'),(91,10,135.50,'已支付','2024-08-23 14:13:45'),(92,13,145.20,'待支付','2024-08-23 14:16:00'),(93,18,130.20,'已发货','2024-08-23 14:18:15'),(94,6,125.50,'已支付','2024-08-23 14:20:30'),(95,11,135.20,'待支付','2024-08-23 14:22:45'),(96,19,140.50,'已发货','2024-08-23 14:25:00'),(97,5,120.20,'待支付','2024-08-23 14:27:15'),(98,20,135.50,'已支付','2024-08-23 14:29:30'),(99,17,145.20,'待支付','2024-08-23 14:31:45'),(100,4,130.20,'已发货','2024-08-23 14:34:00'),(101,10,125.50,'已支付','2024-08-23 14:36:15'),(102,13,135.20,'待支付','2024-08-23 14:38:30'),(103,18,140.50,'已发货','2024-08-23 14:40:45'),(104,16,120.20,'待支付','2024-08-23 14:43:00'),(105,12,135.50,'已支付','2024-08-23 14:45:15'),(106,3,145.20,'待支付','2024-08-23 14:47:30'),(107,8,130.20,'已发货','2024-08-23 14:49:45'),(108,19,125.50,'已支付','2024-08-23 14:52:00'),(109,6,135.20,'待支付','2024-08-23 14:54:15'),(110,14,140.50,'已发货','2024-08-23 14:56:30'),(111,10,120.20,'待支付','2024-08-23 14:58:45'),(112,13,135.50,'已支付','2024-08-23 15:01:00'),(113,18,145.20,'待支付','2024-08-23 15:03:15'),(114,6,130.20,'已发货','2024-08-23 15:05:30'),(115,11,125.50,'已支付','2024-08-23 15:07:45'),(116,19,135.20,'待支付','2024-08-23 15:10:00'),(117,5,140.50,'已发货','2024-08-23 15:12:15'),(118,20,120.20,'待支付','2024-08-23 15:14:30'),(119,17,135.50,'已支付','2024-08-23 15:16:45'),(120,4,145.20,'待支付','2024-08-23 15:19:00'),(121,10,130.20,'已发货','2024-08-23 15:21:15'),(122,13,125.50,'已支付','2024-08-23 15:23:30'),(123,18,135.20,'待支付','2024-08-23 15:25:45'),(124,6,140.50,'已发货','2024-08-23 15:28:00'),(125,11,120.20,'待支付','2024-08-23 15:30:15'),(126,19,135.50,'已支付','2024-08-23 15:32:30'),(127,5,145.20,'待支付','2024-08-23 15:34:45'),(128,20,130.20,'已发货','2024-08-23 15:37:00'),(129,17,125.50,'已支付','2024-08-23 15:39:15'),(130,4,135.20,'待支付','2024-08-23 15:41:30'),(131,10,140.50,'已发货','2024-08-23 15:43:45'),(132,13,120.20,'待支付','2024-08-23 15:46:00'),(133,18,135.50,'已支付','2024-08-23 15:48:15'),(134,6,145.20,'待支付','2024-08-23 15:50:30'),(135,11,130.20,'已发货','2024-08-23 15:52:45'),(136,19,125.50,'已支付','2024-08-23 15:55:00'),(137,5,135.20,'待支付','2024-08-23 15:57:15'),(138,20,140.50,'已发货','2024-08-23 15:59:30'),(139,17,120.20,'待支付','2024-08-23 16:01:45'),(140,4,135.50,'已支付','2024-08-23 16:04:00'),(141,10,145.20,'待支付','2024-08-23 16:06:15'),(142,13,130.20,'已发货','2024-08-23 16:08:30'),(143,18,125.50,'已支付','2024-08-23 16:10:45'),(144,6,135.20,'待支付','2024-08-23 16:13:00'),(145,11,140.50,'已发货','2024-08-23 16:15:15'),(146,19,120.20,'待支付','2024-08-23 16:17:30'),(147,5,135.50,'已支付','2024-08-23 16:19:45'),(148,20,145.20,'待支付','2024-08-23 16:22:00'),(149,17,130.20,'已发货','2024-08-23 16:24:15'),(150,4,125.50,'已支付','2024-08-23 16:26:30'),(151,10,135.20,'待支付','2024-08-23 16:28:45'),(152,13,140.50,'已发货','2024-08-23 16:31:00'),(153,18,120.20,'待支付','2024-08-23 16:33:15'),(154,6,135.50,'已支付','2024-08-23 16:35:30'),(155,11,145.20,'待支付','2024-08-23 16:37:45'),(156,19,130.20,'已发货','2024-08-23 16:40:00'),(157,5,125.50,'已支付','2024-08-23 16:42:15'),(158,20,135.20,'待支付','2024-08-23 16:44:30'),(159,17,140.50,'已发货','2024-08-23 16:46:45'),(160,4,120.20,'待支付','2024-08-23 16:49:00'),(161,10,135.50,'已支付','2024-08-23 16:51:15'),(162,13,145.20,'待支付','2024-08-23 16:53:30'),(163,18,130.20,'已发货','2024-08-23 16:55:45'),(164,6,125.50,'已支付','2024-08-23 16:58:00'),(165,11,135.20,'待支付','2024-08-23 17:00:15'),(166,19,140.50,'已发货','2024-08-23 17:02:30'),(167,5,120.20,'待支付','2024-08-23 17:04:45'),(168,20,135.50,'已支付','2024-08-23 17:07:00'),(169,17,145.20,'待支付','2024-08-23 17:09:15'),(170,4,130.20,'已发货','2024-08-23 17:11:30'),(171,10,125.50,'已支付','2024-08-23 17:13:45'),(172,13,135.20,'待支付','2024-08-23 17:16:00'),(173,18,140.50,'已发货','2024-08-23 17:18:15'),(174,6,120.20,'待支付','2024-08-23 17:20:30'),(175,11,135.50,'已支付','2024-08-23 17:22:45'),(176,19,145.20,'待支付','2024-08-23 17:25:00'),(177,5,130.20,'已发货','2024-08-23 17:27:15'),(178,20,125.50,'已支付','2024-08-23 17:29:30'),(179,17,135.20,'待支付','2024-08-23 17:31:45'),(180,4,140.50,'已发货','2024-08-23 17:34:00'),(181,10,120.20,'待支付','2024-08-23 17:36:15'),(182,13,135.50,'已支付','2024-08-23 17:38:30'),(183,18,145.20,'待支付','2024-08-23 17:40:45'),(184,6,130.20,'已发货','2024-08-23 17:43:00'),(185,11,125.50,'已支付','2024-08-23 17:45:15'),(186,19,135.20,'待支付','2024-08-23 17:47:30'),(187,5,140.50,'已发货','2024-08-23 17:49:45'),(188,20,120.20,'待支付','2024-08-23 17:52:00'),(189,17,135.50,'已支付','2024-08-23 17:54:15'),(190,4,145.20,'待支付','2024-08-23 17:56:30'),(191,10,130.20,'已发货','2024-08-23 17:58:45'),(192,13,125.50,'已支付','2024-08-23 18:01:00'),(193,18,135.20,'待支付','2024-08-23 18:03:15'),(194,6,140.50,'已发货','2024-08-23 18:05:30'),(195,11,120.20,'待支付','2024-08-23 18:07:45'),(196,19,135.50,'已支付','2024-08-23 18:10:00'),(197,5,145.20,'待支付','2024-08-23 18:12:15'),(198,20,130.20,'已发货','2024-08-23 18:14:30'),(199,17,125.50,'已支付','2024-08-23 18:16:45'),(200,4,135.20,'待支付','2024-08-23 18:19:00'),(201,10,140.50,'已发货','2024-08-23 18:21:15'),(202,13,120.20,'待支付','2024-08-23 18:23:30'),(203,18,135.50,'已支付','2024-08-23 18:25:45'),(204,6,145.20,'待支付','2024-08-23 18:28:00'),(205,11,130.20,'已发货','2024-08-23 18:30:15'),(206,19,125.50,'已支付','2024-08-23 18:32:30'),(207,5,135.20,'待支付','2024-08-23 18:34:45'),(208,20,140.50,'已发货','2024-08-23 18:37:00'),(209,17,120.20,'待支付','2024-08-23 18:39:15'),(210,4,135.50,'已支付','2024-08-23 18:41:30'),(211,10,145.20,'待支付','2024-08-23 18:43:45');
复制代码

执行乐成的信息:

执行完之后刷新页面,点击任意数据表检察数据。
 

到这里,恭喜你, TDSQL-C Mysql Serverless 数据库服务器准备完毕!
4.2.2 摆设HAI高算力服务器

1、访问腾讯云 HAI 官网
官网地址:https://cloud.tencent.com/product/hai
 2、点击立即利用

服务授权点击同意:

3、新建服务器
点击新建,费用会在新建服务器并利用后才开始计费

4、根据设置需求选择算力服务器

然后点击立即购买,等候创建就行,创建乐成之后进行下一步操纵。
5、检察HAI算力服务器的llama对外端口

检查是否已经默认开放 6399端口,如下状态即是开放:

6399端口开放的环境:可以直接进行到下一步Python环境的搭建,然跋文得公网IP备份一下,后面需要用到的。
6399端口未开放的环境:需要新建立置进行协议设置。

入站规则泉源选择 all,协议输入 tcp:6399

6、浏览器中模型服务设置乐成测试
利用刚刚备份的公网ip和端口在浏览器中测试,如果看到以下信息说明ollama服务已经对外监听,可以外部连接服务器的ollama。

到这里恭喜你,llama 大模型服务准备完毕!
4.2.3 当地python环境搭建

1、访问python官网,并下载符合自己服务器的python版本(推荐3.10.11)
下载地址:https://www.python.org/downloads/release/python-31011/

如果上面那个地址打不开的也可以换这个网站:https://www.python.org/downloads/windows/ 
 
2、双击安装包安装python
window版本需要勾选 add python to PATH,安装的时候可以选择默认的勾选,然后下一步下一步,然跋文一下软件的安装路径。
 

3、利用pip安装步伐利用的依靠包文件
打开电脑终端:


  • window系统:右键点击开始图标,选择运行,输入cmd,回车后打开终端
  • win键+R




  • macos系统:在app界面选择终端(通常系统默认放在其他的选项集合中)

我的是Windows系统,以下就以Windows系统的操纵记录。
4、pip安装软件依靠包。
运行pip命令安装依靠包,请分别运行以下pip命令逐个安装。
  1. pip install openai
  2. pip install langchain
  3. pip install langchain-core
  4. pip install langchain-community
  5. pip install mysql-connector-python
  6. pip install streamlit
  7. pip install plotly
  8. pip install numpy
  9. pip install pandas
  10. pip install watchdog
  11. pip install matplotlib
  12. pip install kaleido
复制代码

全部安装完成之后,恭喜你,我们的开辟环境准备完毕!
4.3 应用构建

4.3.1 搭建项目框架



  • 新建名为 workspace 文件夹进行保存项目代码
  • 在项目文件夹(workspace)中新建立置文件 config.yaml
  • 在项目文件夹(workspace)中新建应用主文件 text2sql2plotly.py
1、新建名为 workspace 文件夹进行保存项目代码。
文件名可以自己界说。我自己用的是project1。

2、在项目文件夹(workspace)中新建立置文件 config.yaml
新建文件之后,将文件名称改为config.yaml。

3、在项目文件夹(workspace)中新建应用主文件 text2sql2plotly.py

4.3.2 TDSQL-C 数据库&HAI云算力设置

打开 config.yaml 文件,复制以下内容到设置文件中:这里需要注意以下复制的内容需要改成自己的最开始设置服务器的时候设置的。!!!牢记格式不能乱,我自己踩过坑!!!
  1. database:
  2.   db_user: root
  3.   db_password: tencent_TDSQL
  4.   db_host: sh-cynosdbmysql-grp-9d8prc9o.sql.tencentcdb.com
  5.   db_port: 21919
  6.   db_name: shop
  7. hai:
  8.   model: llama3.1:8b
  9.   base_url: http://82.156.229.112:6399
复制代码
这里紧张分为 database 设置 和 hai 的设置:


  • database 的设置详解:

    • db_user: 数据库账号,默认为 root
    • db_password: 创建数据库时的暗码
    • db_host: 数据库连接地址
    • db_port: 数据库公网端口
    • db_name 创建的数据库名称,如果按手册来默认是 shop

  • hai 设置详解:

    • model 利用的大模型
    • base_url 模型暴露的 api 地址,是公网 ip 和端口的组合,默认 llama端口是6399

database 中填入 TDSQL-C 的相关设置,db_host、db_port可以在集群列表中找到

hai base_url将实例的ip进行更换,ip可以在HAI的控制台-> 算力管理中找到

4.3.3 应用开辟

将以下步伐代码复制并保存到 text2sql2plotly.py 文件中
  1. from langchain_community.utilities import SQLDatabase
  2. from langchain_core.prompts import ChatPromptTemplate
  3. from langchain_community.chat_models import ChatOllama
  4. from langchain_core.output_parsers import StrOutputParser
  5. from langchain_core.runnables import RunnablePassthrough
  6. import yaml
  7. import mysql.connector
  8. from decimal import Decimal
  9. import plotly.graph_objects as go
  10. import plotly
  11. import pkg_resources
  12. import matplotlib
  13. yaml_file_path = 'config.yaml'
  14. with open(yaml_file_path, 'r') as file:
  15.     config_data = yaml.safe_load(file)
  16. #获取所有的已安装的pip包
  17. def get_piplist(p):
  18.     return [d.project_name for d in pkg_resources.working_set]
  19. #获取llm用于提供AI交互
  20. ollama = ChatOllama(model=config_data['hai']['model'],base_url=config_data['hai']['base_url'])
  21. db_user = config_data['database']['db_user']
  22. db_password = config_data['database']['db_password']
  23. db_host = config_data['database']['db_host']
  24. db_port= config_data['database']['db_port']
  25. db_name = config_data['database']['db_name']
  26. # 获得schema
  27. def get_schema(db):
  28.    
  29.     schema = mysql_db.get_table_info()
  30.     return schema
  31. def getResult(content):
  32.     global mysql_db
  33.     # 数据库连接
  34.     mysql_db = SQLDatabase.from_uri(f"mysql+mysqlconnector://{db_user}:{db_password}@{db_host}:{db_port}/{db_name}")
  35.     # 获得 数据库中表的信息
  36.     #mysql_db_schema = mysql_db.get_table_info()
  37.     #print(mysql_db_schema)
  38.     template = """基于下面提供的数据库schema, 根据用户提供的要求编写sql查询语句,要求尽量使用最优sql,每次查询都是独立的问题,不要收到其他查询的干扰:
  39.     {schema}
  40.     Question: {question}
  41.     只返回sql语句,不要任何其他多余的字符,例如markdown的格式字符等:
  42.     如果有异常抛出不要显示出来
  43.     """
  44.     prompt = ChatPromptTemplate.from_template(template)
  45.     text_2_sql_chain = (
  46.                 RunnablePassthrough.assign(schema=get_schema)
  47.                 | prompt
  48.                 | ollama
  49.                 | StrOutputParser()
  50.         )
  51.    
  52.     # 执行langchain 获取操作的sql语句
  53.     sql = text_2_sql_chain.invoke({"question": content})
  54.     print(sql)
  55.     #连接数据库进行数据的获取
  56.     # 配置连接信息
  57.     conn = mysql.connector.connect(
  58.    
  59.         host=db_host,
  60.         port=db_port,
  61.         user=db_user,
  62.         password=db_password,
  63.         database=db_name
  64.     )
  65.     # 创建游标对象
  66.     cursor = conn.cursor()
  67.     # 查询数据
  68.     cursor.execute(sql.strip("```").strip("```sql"))
  69.     info = cursor.fetchall()
  70.     # 打印结果
  71.     #for row in info:
  72.         #print(row)
  73.     # 关闭游标和数据库连接
  74.     cursor.close()
  75.     conn.close()
  76.     #根据数据生成对应的图表
  77.     print(info)
  78.     template2 = """
  79.     以下提供当前python环境已经安装的pip包集合:
  80.     {installed_packages};
  81.     请根据data提供的信息,生成是一个适合展示数据的plotly的图表的可执行代码,要求如下:
  82.         1.不要导入没有安装的pip包代码
  83.         2.如果存在多个数据类别,尽量使用柱状图,循环生成时图表中对不同数据请使用不同颜色区分,
  84.         3.图表要生成图片格式,保存在当前文件夹下即可,名称固定为:图表.png,
  85.         4.我需要您生成的代码是没有 Markdown 标记的,纯粹的编程语言代码。
  86.         5.生成的代码请注意将所有依赖包提前导入,
  87.         6.不要使用iplot等需要特定环境的代码
  88.         7.请注意数据之间是否可以转换,使用正确的代码
  89.         8.不需要生成注释
  90.     data:{data}
  91.     这是查询的sql语句与文本:
  92.     sql:{sql}
  93.     question:{question}
  94.     返回数据要求:
  95.     仅仅返回python代码,不要有额外的字符
  96.     """
  97.     prompt2 = ChatPromptTemplate.from_template(template2)
  98.     data_2_code_chain = (
  99.                 RunnablePassthrough.assign(installed_packages=get_piplist)
  100.                 | prompt2
  101.                 | ollama
  102.                 | StrOutputParser()
  103.         )
  104.    
  105.     # 执行langchain 获取操作的sql语句
  106.     code = data_2_code_chain.invoke({"data": info,"sql":sql,'question':content})
  107.    
  108.     #删除数据两端可能存在的markdown格式
  109.     print(code.strip("```").strip("```python"))
  110.     exec(code.strip("```").strip("```python"))
  111.     return {"code":code,"SQL":sql,"Query":info}
  112. # 构建展示页面
  113. import streamlit
  114. # 设置页面标题
  115. streamlit.title('AI驱动的数据库TDSQL-C 电商可视化分析小助手')
  116. # 设置对话框
  117. content = streamlit.text_area('请输入想查询的信息', value='', max_chars=None)
  118. # 提问按钮 # 设置点击操作
  119. if streamlit.button('提问'):
  120.     #开始ai及langchain操作
  121.     if content:
  122.         #进行结果获取
  123.         result = getResult(content)
  124.         #显示操作结果
  125.         streamlit.write('AI生成的SQL语句:')
  126.         streamlit.write(result['SQL'])
  127.         streamlit.write('SQL语句的查询结果:')
  128.         streamlit.write(result['Query'])
  129.         streamlit.write('plotly图表代码:')
  130.         streamlit.write(result['code'])
  131.         # 显示图表内容(生成在getResult中)
  132.     streamlit.image('./图表.png', width=800)
复制代码
4.3.4 运行步伐并测试效果
然后打开终端执行命令:
打开Python软件终端的方式:


  • View--Tool Windows--Terminal
  • 快捷键:Alt+F12


我们可以在这里先测试一下安装的python软件版本,输入命名测试一下版本
  1. (venv) D:\sc\pythonProject1>python --version
  2. Python 3.10.11
复制代码
执行以下命令:
  1. (venv) D:\sc\pythonProject1>streamlit run text2sql2plotly.py
  2.   You can now view your Streamlit app in your browser.
  3.   Local URL: http://localhost:8501
  4.   Network URL: http://192.168.0.108:8501
复制代码
然后再这个界面运行乐成了,步伐在加载后台数据了,这时会跳转到一个默认的浏览器中展示出web页面,我这里是跳转到默认的最老的浏览器中,以是加载会特别慢,我们可以自己复制网址到其他浏览器中打开界面。


到这个查询界面,就说明我们这个搭建就基本上完成了!接下来看查询效果。
4.4 效果展示

1、输入:查询用户信息 测试效果


输入:查询一下每类商品的名称和对应的销售总额 测试效果

4.5 踩坑避雷总结

1、首先我们写入的代码一点要全哈,不然容易缺胳膊少腿的,可以直接复制我的代码粘贴。
2、写入yaml文件的格式要对,好好检查!不然容易出现像我一样的 “:”格式不正常

3、就是输入问题之后会出现各种异常问题,出现类似于下面的问题就不消管,多次反复点击查询直到出现精确的效果。
   友情提示:现在不可能做到每次查询都完全没问题,这个取决于多方面的因素:
  比方:大语言模型(llm)的模型大小、查询形貌的精确性(歧义等沟通问题)等
  


出现以上这些错误不消管,再次查询

直到出现这个,就说明你乐成了!!
推荐的几个查询操纵:


  • 查询每个用户账号的名称和长度
  • 查询一下每类商品的名称和对应的销售总额
  • 查询出用户赵强的已支付订单的总额和未支付订单的总额数据
五、清算资源

5.1 删除TDSQL-C Serverless

我们现在要去删除资源了,如果刚刚设置的界面找不到了,可以去我的主页--左上角三条杠那里,选择迩来访问页面,里面就有我们刚刚设置的界面信息。

点击退还实例,退还后实例会在回收站中。


点击回收站即可看到已被退还的实例,为了数据安全,实例默认会在回收站中保留3天,如不需要可以进行立即释放。

5.2 删除 HAI 算力

到算力管理那里,点击烧毁。

   
六、实验总结归纳

在本次实验中,我们有效地运用了腾讯云的TDSQL-C MySQL Serverless数据库和高性能应用服务HAI,打造了一个既高效又具备良好扩展性的人工智能电商数据分析办理方案。实验的紧张效果和学习经验如下:


  • 云原生数据库的上风:利用腾讯云的TDSQL-C MySQL Serverless,我们深刻体会到了云原生数据库在处置惩罚海量数据时所展现的机动性与卓越性能,这对于电商数据的分析至关紧张。
  • AI模型的GPU加速:借助HAI的GPU加速功能,AI模型的训练和推理服从得到了显著提升,这使得我们的系统能够迅速适应市场动态和用户需求的厘革。
  • 实践操纵的紧张性:通过现实案例的深入研究,开辟人员不仅掌握了理论知识,还通过亲身实践加强了对系统功能的明白和应用。
  • 连续的学习和优化:实验的反馈也揭示了系统当前的局限和潜在的改进方向,激励开辟者连续追踪最新技术趋势,学习新方法,以推动系统的连续改进和升级。
随着技术的连续发展,我们对将来实验中能够探索的创新机会布满期待。同时我们也可以一起挖掘TDSQL-C Serverless与AI结合的更多应用场景,共同推动行业发展和技术创新!盼望AI在电商行业拥有更广阔的前景!

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

金歌

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表