GitHubスライド | slidict.io

JA | EN

PersonaPlex: Voice and Role Control for Full Duplex Conversational Speech Models

NVIDIA
NVIDIA
最終更新: 2026/04/10
読む時間: 00:10

共有

コード

このスライドは以下のGitHubリポジトリのREADMEを元に作成されました

https://github.com/NVIDIA/personaplex
01

概要

PersonaPlexは、テキストベースの役割プロンプトと音声ベースのボイスコンディショニングにより、フルデュプレックス会話モデルです。合成および実データでトレーニングされており、自然で低レイテンシな対話と一貫性のあるペルソナを生成します。Moshiアーキテクチャとウェイトに基づいています。

02

主な機能・特徴

  • リアルタイムでのフルデュプレックス会話

  • テキストベースの役割プロンプトによるペルソナ制御

  • 音声ベースのボイスコンディショニング

  • 合成および実データでトレーニング

  • 自然で低レイテンシな対話

03

使い方・はじめ方

  • Opusオーディオコーデックのインストール(Ubuntu/DebianまたはFedora/RHEL)

  • リポジトリのダウンロードと`pip install moshi/.`によるインストール

  • Huggingfaceアカウントでのモデルライセンスの受け入れ

  • Huggingface認証の設定 (export HF_TOKEN=)

  • SSL証明書を使用したサーバーの起動

  • CPUオフロード(GPUメモリが不足する場合)

  • Web UIへのアクセス(ローカルまたはスクリプトで表示されるURL)

  • オフライン評価のためのスクリプトの使用

関連スライド

Background

スライド作成を
無料で始める

AIがあなたのスライドを自動生成。無料で、すぐに体験できます。

PersonaPlex: Voice and Role Control for Full Duplex Conversational Speech Modelsのサムネイル(1ページ目)
1 / 9