Skip to content

Generative AI を活用したビジネスユースケースのデモンストレーション

License

Notifications You must be signed in to change notification settings

sukedachi-ichikawa/generative-ai-use-cases-jp

 
 

Repository files navigation

This repository is optimized for Japanese.

Generative AI Use Cases JP

Generative AI(生成系 AI)は、ビジネスの変革に革新的な可能性をもたらします。このリポジトリでは、Generative AI を活用したビジネスユースケースをデモンストレーションしています。

sc_lp.png

このリポジトリでは、デフォルトでバージニア北部 (us-east-1) リージョンの Anthropic Claude モデルを利用する設定になっています。Model access 画面 を開き、「Edit」 → 「Anthropic Claude にチェック」 → 「Save changes」 と操作していただいて、バージニア北部リージョンにて Amazon Bedrock (基盤モデル: Claude) を利用できる状態にしてください。東京リージョンのモデルを利用する場合など、設定を変える方法については モデル・リージョンの切り替え をご確認ください。

機能一覧

✅ ... 実装されている、🚧 ... まだ実装されていない

  • ✅ Amazon Bedrock を LLM として利用
  • ✅ Amazon Bedrock Fine-tuning 用のデータ収集
  • 🚧 Amazon Bedrock Fine-tuning 用データのラベリング
  • 🚧 Amazon Bedrock Fine-tuning の実行

ユースケース一覧

ユースケースは随時追加予定です。ご要望があれば Issue に起票をお願いいたします。

チャット

LLM とチャット形式で対話することができます。LLM と直接対話するプラットフォームが存在するおかげで、細かいユースケースや新しいユースケースに迅速に対応することができます。また、プロンプトエンジニアリングの検証用環境としても有効です。

RAG チャット

RAG は LLM が苦手な最新の情報やドメイン知識を外部から伝えることで、本来なら回答できない内容にも答えられるようにする手法です。それと同時に、根拠に基づいた回答のみを許すため、LLM にありがちな「それっぽい間違った情報」を回答させないという効果もあります。例えば、社内ドキュメントを LLM に渡せば、社内の問い合わせ対応が自動化できます。このリポジトリでは Amazon Kendra から情報を取得しています。

文章生成

あらゆるコンテキストで文章を生成することは LLM が最も得意とするタスクの 1 つです。記事・レポート・メールなど、あらゆるコンテキストに対応します。

要約

LLM は、大量の文章を要約するタスクを得意としています。ただ要約するだけでなく、文章をコンテキストとして与えた上で、必要な情報を対話形式で引き出すこともできます。例えば、契約書を読み込ませて「XXX の条件は?」「YYY の金額は?」といった情報を取得することが可能です。

校正

LLM は、文章の誤字脱字だけでなく文章を理解し改善点を指摘することが可能です。自分が書いたレポートを人に見せる前に LLM に自分では気づかなかった点を客観的に指摘してもらいクオリティを上げる効果が期待できます。

翻訳

多言語で学習した LLM は、翻訳を行うことも可能です。また、ただ翻訳するだけではなく、カジュアルさ・対象層など様々な指定されたコンテキスト情報を翻訳に反映させることが可能です。

アーキテクチャ

このサンプルでは、フロントエンドは React を用いて実装し、静的ファイルは Amazon CloudFront + Amazon S3 によって配信されています。バックエンドには Amazon API Gateway + AWS Lambda、認証には Amazon Congito を使用しています。また、LLM は Amazon Bedrock を使用します。RAG のデータソースには Amazon Kendra を利用しています。

arch.png

デプロイ

AWS Cloud Development Kit(以降 CDK)を利用してデプロイします。最初に、npm パッケージをインストールしてください。なお、全てのコマンドはルートディレクトリで実行してください。

npm ci

CDK を利用したことがない場合、初回のみ Bootstrap 作業が必要です。すでに Bootstrap された環境では以下のコマンドは不要です。

npx -w packages/cdk cdk bootstrap

続いて、以下のコマンドで AWS リソースをデプロイします。デプロイが完了するまで、お待ちください(20 分程度かかる場合があります)。

npm run cdk:deploy

RAG 有効化

RAG のユースケースを試す場合は、RAG の有効化および Kendra の Data source を手動で Sync する必要があります。

まず、RAG を有効化して再デプロイします。 packages/cdk/cdk.json を開き、contextragEnabledtrue に変更します。 その後、以下のコマンドで再デプロイしてください。

npm run cdk:deploy

続いて、Kendra の Data source の Sync を以下の手順で行なってください。

  1. Amazon Kendra のコンソール画面 を開く
  2. generative-ai-use-cases-index をクリック
  3. Data sources をクリック
  4. WebCrawler をクリック
  5. Sync now をクリック

Sync run history の Status / Summary に Completed が表示されれば完了です。AWS の Amazon Bedrock 関連のページをクローリングし、自動でドキュメントが追加されます。

モデル・リージョンの切り替え

  • デフォルトでは us-east-1anthropic.claude-v2 を利用しています。異なる設定を利用したい場合は /docs/BEDROCK.md をご確認ください。
  • Amazon Bedrock ではなく Amazon SageMaker にデプロイしたカスタムモデルを使うことも可能です。詳細は /docs/SAGEMAKER.md をご確認ください。

Pull Request を出す場合

バグ修正や機能改善などの Pull Request は歓迎しております。コミットする前に、lint ツールを実行してください。

npm run lint

また、ローカル環境の構築手順については /docs/DEVELOPMENT.md をご確認ください。

動画でデプロイ手順とデモンストレーションを紹介

動画でデプロイ手順とデモンストレーションをご覧いただけます。以下のサムネイルをクリックして再生してください。なおデプロイ手順につきましては、詳細な手順を後述しております。

デプロイ手順 デモンストレーション
デプロイ手順 デモ

情報が古くなっている可能性があります。最新の手順については README.md をご確認ください。

Security

See CONTRIBUTING for more information.

License

This library is licensed under the MIT-0 License. See the LICENSE file.

About

Generative AI を活用したビジネスユースケースのデモンストレーション

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • TypeScript 97.9%
  • JavaScript 1.1%
  • Other 1.0%