Skip to main content

大模型联网搜索与视觉推理案例

描述

  • 使用大模型接入语音对话,实现了一个语音交互系统,包括录音、语音转写、视觉推理、联网搜索、对话生成和语音播放功能。
  • 示例代码路径:<kuavo_ros_application>/src/kuavo_large_model/kuavo_kimi_model/kimi_python3_demo.py

程序逻辑

  1. 导入模块及定义全局变量
  • 作用:导入所需的Python标准库和第三方库并定义录音和音频处理的全局参数。
  1. recorder 函数
  • 作用:实现录音功能,根据音量阈值和静默时间自动开始和结束录音。

  • 关键逻辑:

    • 使用 pyaudio 打开音频流并读取数据。

    • 通过 audioop.rms 计算音频数据的音量。

    • 如果音量超过阈值,开始录音;如果静默时间超过设定值,结束录音。

    • 录音数据保存为PCM文件。

  1. kimi_vision_chat 函数
  • 作用:使用 Kimi API(通过 https://api.moonshot.cn/v1 接口)调用 moonshot-v1-8k-vision-preview 视觉模型进行对话,并将回复通过TTS转换为语音播放。

  • 关键逻辑:

    • 从摄像头捕获一帧图像并保存为 picture.jpg。

    • 构造请求体,发送到 Kimi 的 API。

    • 解析API返回的回复内容。

    • 调用 tts_xunfei 将回复转换为语音并播放。

  1. kimi_network_chat 函数
  • 作用:使用 Kimi API(通过 https://api.moonshot.cn/v1 接口)调用 moonshot-v1-128k 语言模型进行对话,并将回复通过TTS转换为语音播放。

  • 关键逻辑:

    • 构造请求体,发送到 Kimi 的 API。

    • 调用 search_impl 函数执行网络搜索。

    • 通过循环持续调用 chat 函数获取回复内容。

    • 解析API返回的回复内容。

    • 调用 tts_xunfei 将回复转换为语音并播放。

  1. Client 类
  • 作用:实现与讯飞实时语音转写(RTASR)服务的WebSocket通信。

  • 关键逻辑:

    • 初始化WebSocket连接并生成签名。

    • 发送音频数据到RTASR服务。

    • 接收并解析RTASR返回的转写结果。

  1. 主程序
  • 作用:主程序逻辑,循环录音、转写、对话和播放。

  • 关键逻辑:

    • 初始化视频捕获对象。

    • 调用 recorder 录音。

    • 使用 Client 类将录音发送到RTASR服务。

    • 定义正则表达式关键词。

    • 用户输入包含关键词则调用 kimi_network_chat 进行对话和联网搜索并播放回复。

    • 用户输入不包含关键词则调用 kimi_vision_chat 进行对话和视觉推理并播放回复。

说明

⚠️ 注意: 该案例使用了科大讯飞的RTASR,TTS模型以及北京月之暗面(moonshot)的 moonshot-v1-8k-vision-preview 视觉模型和 moonshot-v1-128k 语言模型。这四个模型均为收费模型,需要自行创建账号充值获取API Key并将获取到的API Key复制到程序对应地方,使用时机器人上位机要连接外网(能访问互联网)

执行

  • 启动
    cd kuavo_ros_application  # 进入上位机工作空间(根据实际部署目录切换)
    source /opt/ros/noetic/setup.bash
    source devel/setup.bash
    python3 src/kuavo_large_model/kuavo_kimi_model/kimi_python3_demo.py