ChatGPTなどのLLMが、話題となっています。LLMを用いたチャットボットの開発とデータ基盤の構築、データ分析と品質の向上が、ビジネスを左右する時代です。

本記事では、2023年9月14日に開催されたセミナーを基に、LLMをビジネスに活用し、自社のデータを最大限に活かす方法、チャットボットの可能性を探求します。

また、スポーツデータを中心にビジネスを展開する先進的な企業の事例を取り上げ、LLMのビジネス活用における具体的な成果、構築方法、費用に関しても触れます。

以下のような関心をお持ちの方に特におすすめです。

  • LLMを自社ビジネスに活用した事例に興味がある方
  • チャットボットの応答品質を向上させたい、効率化を図りたい方
  • データ分析とLLMの活用法を学びたいデータ管理者や分析者の方

なお、当日のセミナーはこちらからご覧いただけます。

※本イベントレポートの内容は2023年9月当時のものです。TROCCO®の利用や接続オプション等の利用の詳細について知りたい方はprimeNumberまでお問い合わせください。

https://trocco.io/inquiry/new

講演者紹介

齋藤 和正氏

株式会社Hakky 代表取締役社長

大阪大学基礎工学部・同大学院情報科学研究科卒業。
株式会社ABEJAにて小売業界向け分析SaaSのプロダクトオーナーを務め、データサイエンティストとして様々なお客様のデータ分析や需要予測プロジェクトに関わる。
2021年に「データでプロダクトを価値あるものに」のミッションを掲げ、株式会社Hakkyを設立。機械学習プロダクトの開発支援やデータ分析基盤の構築支援を行う。

薬丸 信也

株式会社primeNumber カスタマーサクセス本部Senior Account Executive

株式会社キーエンスにて製造業向けコンサルティングエンジニアとして従事した後、株式会社primeNumberにパートナー営業・エンタープライズ営業としてジョイン。現在は、広告・IT関連から製造・小売りまで業界を問わず、データ活用基盤の構築を支援している。


SECTION1:LLMを最大限活用するデータ分析の基盤とは

LLMを最大限活用するデータ分析基盤とは

齋藤氏:「本日のセミナーでは、主に三つの目標を設定しています。

一つ目は、LLMの基本的な知識を再確認し、その最新の活用方法を紹介します。

二つ目は、LLMを活用したチャットボットの構築方法について紹介します。

最後に、自社のデータや、チャットデータの保管・活用方法について解説します。これには、チャットボットを通じて集約されたデータの活用方法も含まれます。」

本日のアジェンダ

第一部:ChatGPT / LLMの基礎

齋藤氏:「ChatGPTは、OpenAI社が2022年11月に公開したチャットボットです。

人間同士の会話と同じように、自然な対話形式でAIが回答します。つまり、ユーザが何かを質問すれば、AIから自然な形で回答が返されます。」

ChatGPTの背後にある大規模言語モデル

齋藤氏:「ChatGPTの背後にあるのは、私たちのような一般的な企業が対抗できるレベルを超えた大規模な言語モデルです。

この大規模言語モデルは、パラメータ数が多いほど、つまり訓練データが多いほど高精度になる特性を持っています。

想像を絶する量のデータで学習することにより、ある程度の学習データすら必要とせずに様々なタスクを成し遂げます。

背後に大規模言語モデルという巨大なモデルが存在し、これらの機能を実現しています。」

OpenAIが大規模言語モデルのAPIを開放

齋藤氏:「OpenAIが大規模言語モデルのAPIを2023年3月1日に公開しました。APIにより、高精度な言語モデルを非常に低価格で利用できるようになりました。

APIはシステムとシステムをつなぐ接続口で、システム間の連携を可能にします。OpenAIのAPI経由での利用により、チャットボットなどのシステム上でもAIの活用が可能になりました。

API経由での利用は、入力データが学習に用いられることはありませんし、データの削除も保証されています。OpenAIのAPIによって、大規模で高精度なAIモデルを安価に利用できます。」

大規模言語モデルはどのようなことに使えるのか?

齋藤氏:「大規模なテキストデータを扱える言語モデルとして注目されているのがChatGPTです。ChatGPTは、自然な文をスピーディに生成できる能力があります。チャットボットの運用、コンテンツ生成など、様々な用途への活用が可能です。

特に、複数の領域や多様な情報をもとに、求人情報からオウンドメディア、プレスリリースなど、あらゆるテイストの文面を生成できます。カスタマーサポートでもChatGPTの活用が期待されています。」

Hakky事例|補助金申請書類作成をAIでサポート

齋藤氏:「大規模言語モデル(LLM)を用いることで、ソフトウェアの運用が大きく変わりました。最も注目すべき点は「テキストだけでソフトウェアを操作できる」という事です。

例えば、ユーザーがテキストで特定の検索条件を入力すると、ソフトウェアが自動的にその指示に従って動きます。

私たちの会社Hakkyは、AIを活用して補助金申請書類作成の支援を行っています。我々はたった1ヶ月という短期間で、大規模言語モデルを用いた文書作成支援のフィジビリティスタディを行いました。

具体的には、AIが補助金申請書作成を行うフィジビリティ検証のため、ChatGPTに使用されているOpenAI APIをGoogleスプレッドシートとGoogle Apps Scriptで連携し、プロトタイプを短期間で実現しました。

また、OpenAIの大規模言語モデルをカスタマイズし、既存の事業内容を理解させ、発生している課題や将来の展望等を考慮し、補助金申請に適した内容を出力できるようにしました。

さらに、補助金申請書作成に必要な独特な書式に対応したフォーマットの出力ができるようにシステムを最適化しました。」

第二部:LLMを活用したチャットボットで出来ること

齋藤氏:「第二部では、LLMを活用したチャットボットでできることを解説します。チャットボットは多様な用途で使うことができます。

例えばテキスト指示を出すとそれに対応した応答が返ってくるだけでなく、コンテンツの生成や記事の自動生成、補助金の申請処理の自動生成、ソフトウェアの操作などが可能です。

従来の問い合わせ対応といえば電話やメールが主流でしたが、これらは人手による対応が不可欠で、運用負荷が高く、人員確保や教育面でのコストもかかるという問題がありました。

これに対してチャットボットは、事前に設定したルールに基づいて自動応答を行うため、運用負荷を軽減し、コミュニケーション品質を高める新たな解決策です。

特に、サービスが拡大するにつれ増えてくる問い合わせ量に対し、チャットボットは人員数を増やすことなく対応できるというメリットがあります。」

従来のチャットボットと大規模プロダクト連携との比較

齋藤氏:「従来のチャットボットに大規模言語モデルを組み合わせることで、よりユーザーフレンドリーかつ柔軟な対応が可能になると考えています。

具体的には、ユーザー情報を元にした応答、文脈の理解、長文対応、特定のドメインに特化した対応といった領域において改善が期待できます。

例えば、チャットGPTのようなものを通じて、ユーザーが自由に要求を表明すると、それを正確に理解し対応するといった柔軟性があるため、カスタマーサポートなどに活用できます。」


大規模言語モデルでできるようになったこと

齋藤氏:「大規模言語モデル、LLMによって可能になったことを三つの主要なポイントに分けてみました。

一つ目は、文脈を理解して自動的に応答生成ができるようになったことです。

二つ目は、社内ドキュメントなど、特定領域の専門知識を活用して対応できるようになったということです。これには、質問者からの会話テキストを抽出し、それを構造化してツールとして利用できるようにすることも含まれます。さらに、それぞれのセクション内での履歴を保存し、活用することも可能です。

三つ目は、データ分析やチャットボット設定、シナリオ作成などのタスクを自動化できるようになったという点です。これには、各種の負荷を自動化し、チャットボットの設定を自動化するといった機能が含まれます。」

大規模言語モデル連携による自然な応答の表現

齋藤氏:「大規模言語モデル(LLM)の力を活用して、より自然な会話を実現するための流れについて説明します。

まず、ユーザーの会話内容から必要な情報を解釈します。たとえば「~が分からない」といった質問があった際、そのまま回答できるならそのままで、それが不可能な場合には何を知りたいのかを具体的に再確認するのです。

次に、回答に必要な情報を集めます。ユーザーが何を知りたいと質問したのかを判断した上で、それに対する情報を自社データベースから取得したり、必要に応じてWeb検索を行ったりします。

最後に、これまでの会話履歴や取得した情報を基に、自然な形での会話応答を行います。ユーザーからの質問を解釈し、必要な情報を収集した上で、適切な応答を提供します。

全プロセスをLLMが担っており、人間らしい自然な会話をAIが行うことが可能になります。」

使用例:社内申請サポートチャットボット

齋藤氏:「社内申請をサポートするチャットボットの例をご紹介します。

このチャットボットは、限定された情報だけでなく、多様な情報を複合的に管理・検索可能です。利用者が必要な情報を求めている際、関連する情報を先読みして提供できます。

例えば、年末調整についての必要な書類に関する問い合わせがあった場合、昨年同様に必要な書類と、新たに必要な書類を提案できます。

また、ユーザーが急な会議が入り、明日対応する旨を伝えた場合でも、提出期限等の情報を抽出し、翌日ユーザーへとリマインドするような操作も可能となります。

さらに、AIが適切に情報を解釈し、外部から新たな情報を取り入れ、それを元にユーザーへのレスポンスを生成できるようになることで、ソフトウェアの運用効率を大幅に向上できます。」

LLM搭載型チャットボットを扱ったプロジェクト例

齋藤氏:「私たちの会社では、LLMを搭載したチャットボットの開発に力を入れています。その一部をご紹介しましょう。

まずは、ECサイトと連動させて、お客様のニーズに合わせて商品を推奨するチャットボットや、AIがキャラクターとして商品を紹介するチャットボット、さらには業務用ツールの使い方を説明するチャットボット等、多岐にわたる開発を行っています。その中には、チャットの内容に基づいて自動操作を行うシステム開発に取り組むプロジェクトも含まれています。

また、人々のモチベーションや個々の好みに応じてアドバイスを提供する「コーチングチャットボット」も開発しています。コーチングチャットボットは、自分と相性の良いコーチ、例えば熱血型や理論派などから、ユーザーが求める形のコーチングを提供できます。

その他にも、専門的な知識がなくても利用者が分析ができるようなインターフェースを持つチャットボットの構築も進めています。」


テレビ制作現場向けのデータ分析チャットボットを開発

齋藤氏:「データスタジアム様と共同でテレビ制作現場向けのデータ分析チャットボットを開発しました。プロ野球やサッカーなどスポーツの結果を踏まえた報道内容や解説をデータに基づき提供し、リアルタイムに更新するニーズがあると感じました。

例えば、大谷翔平選手がホームランを打った時の評価をデータベースで提供するなどの場面で、データ分析が必要となります。

データスタジアム様は長年にわたり収集したデータを用いて情報の提供や分析のサポートを行っているのですが、テレビ制作現場でのデータ分析がチャットを通じて行えるシステムの開発が今回のプロジェクトの目的でした。

私たちはデータスタジアム様の膨大なデータと大規模言語モデルを組み合わせて、データをチャットボット形式で取得するツールの開発を行いました。」

CASE STUDY|プロジェクトの流れ

齋藤氏:「取り組みを開始したのは、テレビ局との協業が始まったタイミングで、1ヶ月後にはツールの構築を実現しました。

この短期間での開発が可能だった理由の一つが、我々のデータ基盤上には既にデータが整理・蓄積されており、LLMをすぐに利用できる状態だったからです。

プロジェクトの始めにはまず一週間程度を要件定義に費やしました。この段階で何を会話のコンテンツとして実現したいのか、どのようなデータ構造を持つデータ基盤を使用するのかについて明確に定義しました。

その要件を基に、次に2週間程度をシステム開発に充てました。この開発段階では、チャットUIの準備、応答内容のロジックの開発、そしてCI/CDの設定などを行いました。要件定義の段階で全てを詰め切れなかった部分もあったため、開発進行中もアジャイルな開発手法を取り入れ、要件の詳細やデプロイフローの修正を行いました。

プロジェクト開始から約3週間後、システムは一通り完成し、実際の運用に向けてクライアントに提供しました。

その後は、実際のデータを元にしたレポーティングを行いつつ、プロジェクトを維持・改善していきました。」

要件定義

齋藤氏:「データスタジアム社様とテレビ局からの要件定義に基づき、システム構築の提案を行いました。

想定していたのは、ChatGPTのような応答方式で、質問を投げられると野球成績に関する答えを返す仕組みです。必要なデータの種類や結果画面のイメージ(表形式など)がある程度決まっていましたが、全てのデータはスコアブックから取得可能で、個々の成績やランキングなどの情報が含まれます。

ただし納期は1ヶ月程度と短期間であり、取り扱うデータは膨大です。作業段階での要望は、データのリストアップと優先度の確認、さらに集計結果をエクセルで出力できる機能の追加でした。

システム構成については、運用開始までの期間が短く、また技術検証の意図が大きかったため、Google Cloud Platform上で完結する形を提案しました。

ユーザーから質問を受けると、システムはGPT-4を用いてその質問をSQLに変換します。そのSQLはデータベースに投げられ、出てきたデータを表示します。

特殊な例として、「チームHakkyの試合結果を教えて」というユーザーからの入力がある場合、システムはこの質問がチームHakkyに関するものであることを理解します。

また、打率を計算する際には、一度だけ打席に立った選手の打率100%というような値ではなく、定期的に打席に立った選手の打率を計算します。

このようなデフォルト値の制御もプロンプトベースで行いました。エラーが発生した場合、エラーの内容をOpenAIに報告し、その結果を元に修正を行います。」

システム開発とレポーティング

齋藤氏:「具体的な構築内容としては、チャットUIの用意、チャットロボットの対話内容のロジック開発、データ更新操作のドキュメンテーション、システムのデプロイフローを用意するためのCI/CDの構築、クラウドインフラの設定やチャットシステムの要件定義などが含まれます。

LLMを用いたデータ分析チャットボットとそのシステム概要をまとめたドキュメントを提供し、過去の試合データしか存在しなかった状態から、更新作業が容易になるようにテーブルの作成やデータ増加に対応したマニュアルとスクリプトを提供しました。

さらに、チャットボットとユーザー間のやり取りの履歴を分析することで、ユーザーがどのような質問を投げ、それに対するチャットボットの応答がどの程度満足されているのかを確認することも可能です。

例えば、カスタマーサポートであれば、投げられた問題が解決されたのか、データストレージにおいては要求された数値が適切に提供されたのかを確認できます。

一度システムを構築した後も、そのまま運用するだけでなく、蓄積したデータを最大限に活用することで、AIの性能向上や今後のカスタマーサポートの改善等を進めることができます。

その後は、実際のデータを元にしたレポーティングを行いつつ、プロジェクトを維持・改善していきます。」

第三部:貯めたデータを最大限活かすデータ基盤の構築

齋藤氏:「第三部では、収集したデータを最大限に活用するためのデータ基盤の構築について説明します。

チャットボット運用の自動化を行うためには、データ基盤の存在が必須です。

例えば、過去のチャット履歴からLLMが使用するQ&Aやシナリオを自動で作成し、それを分析して反映することです。これにより、回答履歴が増えるごとにAIも進化し、より洗練された対応が可能となります。

さらに、ユーザーテキストから満足度を自動分析し、それをもとに回答に不満を感じたユーザーがいれば、その内容に対して更なる情報を加える等の対応が可能となります。

このようなデータ分析や改善を行うことで、精度向上のための取り組みが可能となり、運用も楽になります。そのため、しっかりとしたデータ基盤を構築し、活用することが重要となります。」

Fine-tuning

齋藤氏:「2023年8月22日に公式リリースされたGPT-3.5-turboは、fine-tuning機能を利用できるようになりました。

fine-tuning機能にはいくつかポイントがあります。

一つ目はImproved steerabilityで、これは出力の簡素化や応答する言語の指定など、ビジネスで応用する際の細かい指示に従いやすくできます。

二つ目のReliable output formattingは、コード補完やAPI呼び出しなどの特定の応答フォーマットを要求するシステムにモデルを組み込むことができます。

三つ目のCustom toneでは、口調などのモデルの出力の品質感を微調整できます。例えば企業のブランドイメージに合わせた文体や、口調にしたい場合などに便利です。」

ベクトルデータベースによる外部知識の活用

齋藤氏:「ベクトルデータベースによる外部知識の活用法を解説します。

データの適切な保持方法は、より高品質な結果を得るための重要なポイントの一つです。たとえば、ReActを使用したドキュメント検索のフローを挿入し、自社や外部のデータソースに接続して回答を生成できるようになりました。

この際、ベクトル化して保持しているドキュメントをアプリケーションから利用できるように、「ベクトルデータベース」を活用します。データの前処理や加工などが行われ、結果がデータ基盤上のパイプラインを通じてベクトルデータベースに保存される流れです。

ベクトルデータベースによって、精度の高い結果を得られる可能性が高まります。」

Google Cloudの例

齋藤氏:「最近のトレンドとして、データ基盤と生成AIの融合が注目されています。

例えば、BigQueryというデータウェアハウスを使用して、ユーザーの声などを分析する際に、文章の要約を生成AIを使って行うことができます。データ基盤と生成AIの融合を通じて、幅広い用途に対応できるようになりました。

また、従来は扱いにくかったテキストデータも、SQLを用いることでデータ基盤での利用が可能となりました。」

データ基盤との接続による高度化

齋藤氏:「LLMは、単体でも強力な能力を発揮します。高品質なデータや、さまざまなタイプのデータ、大量のデータを扱うことにより、さらなる進化を遂げることが可能です。

また、適切なクエリの設定や必要な処理を施すことで、トークンの節約や抽出情報の要約・テキスト分類といった作業を行えます。その結果、LLMはベクトルデータベースやチャットボットといったツールと連携できます。

さらに、AIによる解析結果をデータとして蓄積し、データ基盤にアクセスしてさらなる解析を行うことも可能です。

これらのデータはLLMのファインチューニングに役立つだけでなく、新たな知識として利用できます。データ基盤とLLMを連携させることで、LLMの可能性を最大限に引き出すことができると考えています。」

プロジェクトの進め方

齋藤氏:「Hakkyではチャットボットの開発に関して、複数のフェーズに分けて取り組んでいます。

初めのフェーズとして「プロトタイプの構築」を行い、クライアントがどのようなデータを持っているのか、及びそのデータを用いてチャットボットが作成可能なのかを検証します。

次に「チャットボットの構築」を進め、実際に製品を市場に投入します。

ローンチ後は「データ基盤の構築」フェーズに入り、収集したデータの加工を行いながら、AIが更に進化していく基盤を作成します。

最後のフェーズ「さらに発展的な活用」では、より高度な機能の開発を進めていきます。これはHakkyが一般的にクライアントと共にプロジェクトを進めていくステップの一例です。」

本ウェビナーのまとめ

齋藤氏:「今回のセミナーでは、LLMの基本的な活用方法について触れ、具体的にはチャットボットの構築方法を説明しました。さらに、自社のデータやチャットデータの活用に向けたデータ基盤の利用術も提案しました。

LLMとデータ基盤を組み合わせることで、データの活用による精度向上や運用負荷の軽減といった目標を達成できます。

技術的な内容を省略して説明したため、完全に理解できなかった箇所もあったかもしれません。今回の内容が参加者の皆様にとって有用であったことを願っています。」

齋藤氏:「Hakkyでは、大規模言語モデルを業務やプロダクトに活用したいと考えている企業の方向けに、専門的なコンサルティングや開発のサポートを提供しています。

ChatGPTを用いてプロダクトの高速開発も可能です。

本日ご紹介した内容以外にも「こんなことができないか」といったご相談も大歓迎です。大規模言語モデルの活用に関するコンサルティングも行っておりますので、興味がある方はぜひお問い合わせください。」

SECTION2:TROCCO®の概要とユースケース

薬丸:「primeNumberは、データエンジニアリングに特化したサービスを提供しており、主力事業を大きく二つに分けています。

一つはデータエンジニアリングソリューションの提供で、ETL/ELTサービスの提供も含まれています。

もう一つは、データ分析基盤の構築を支援するサービスで、TROCCO®というツールを活用しています。

各サービスでは、基盤の構築だけでなく、お客様のデータ活用人材の育成も支援しています。私たちはお客様の課題や時間に向き合い、その中で得られたフィードバックを新たな開発に活かすことで、常にサービスの向上を図っています。」

TROCCO®とは?

薬丸:「TROCCO®とは、データエンジニアリングやModern Data Stackを構築するために必要な技術スタックを提供するサービスです。

具体的には四つの主要な機能を提供しています。

一つ目は、「データ転送・ETL」です。複数のソースから得られるデータを統合し、加工できます。

二つ目は、「データマート生成・モデリング」機能であり、データウェアハウス内のデータを分析の準備が整った形に加工できます。

三つ目は、「ワークフロー」です。これは、ジョブの依存関係やスケジュールをDAG(Directed Acyclic Graph、有向非循環グラフ)で設定し、自動化する機能です。

最後の四つ目は、「データカタログ」であり、メタデータ管理やデータの関係性把握を通じて、データ分析を容易にする機能です。

四つの機能を提供することで、データ分析基盤の構築におけるあらゆる課題の解決を支援します。」

そもそも、なぜデータ分析基盤が必要なのか?

薬丸:「データ分析基盤の必要性について説明します。

企業内に存在するデータは散在しており、その状況を整理しようとすると収集コストが高く、時間もかかります。さらにデータが分散しているため、必要なデータを迅速に用意することが難しく、結果として分析の効果が十分に発揮できません。

データを一か所に集め、分析に適した環境を整備することで初めて分析の価値が引き出されます。分析結果はチャットボットのようなサービスの精度向上にも活用できます。

これが分析基盤が必要とされる理由です。」


部署をまたいで、ビジネス効果を可視化できる

薬丸:「たとえば、データ分析基盤にビジネスデータを統合すると、チャネルごとのコストとビジネス効果を正確に把握できます。

さらにマーケティングから営業までの各部署をフルに活用し、ビジネス効果を可視化できます。

全社で共通のダッシュボードを持ち、さまざまな部署をまたいだデータを横断的に見ることで、例えばマーケティングからどれぐらいの売上につながったかといった情報を把握・分析できます。」


インサイドセールスのダッシュボード作成が可能

薬丸:「例えば、データ分析基盤にビジネスデータを統合すると、インサイドセールスの活動分析ダッシュボードが作成可能になります。

これは、活動に伴う成果やボトルネックをモニタリングする重要なツールです。

営業活動から成果に至るまでのプロセスを可視化することで、営業活動の改善を具体的に進めることが可能になります。たとえば、セールスチームであれば、最初の交渉から実際にどれくらいの成果に結びついているかというプロセスを可視化できます。

プロセスの可視化により、営業活動の改善につながります。データ分析基盤を利用してダッシュボードを作成する、という形が理想的なアーキテクチャと言えるでしょう。」


データ分析基盤に必要なものとは

薬丸:「データ分析基盤に必要なものとは、まず売上データやシステム上の商品・購買データ、そして管理・分析するのに適したBIツールなどです。

重要なのはこれらのデータをうまく組み合わせ、相互の関連性を見出すことです。データは更新・活用され、広告や宣伝に使われます。

また、データを効率よく管理するためにはデータレイクやデータウェアハウスの導入も重要だと考えています。

さらに、顧客の行動ログ等のデータを活用しやすい形に加工し、一意のデータを参照できるようにすること、欲しいデータがすぐに手に入る環境を整え、データの処理を自動化することで、データ活用を促進します。

信頼度の高いデータを一元管理し、いつでも横断的に活用できる環境を整えたいと考えています。

データ分析基盤を作るにあたって、複数のツールやサービスが必要です。」

データ分析基盤の構築・運用でよくある課題

薬丸:「データ分析基盤の構築や運用では大小さまざまな課題が存在します。

新たな技術のキャッチアップに時間がかかりますし、各ツールの運用や保守に時間が必要です。

データ分析基盤の必要性は認識していても、どこから手をつけて良いのかがわからないという問題もあります。データを拡充するためのコストが高くて、プロジェクトが前に進まず停滞することもあります。

さらに、必要な技術スタックが多いため、学習コストが高くなりがちで、新たに技術を習得するための時間やリソースが足りずデータ連携に手間取ることもあります。

加えて、基盤の構築には多くの工数やコストがかかるため、運用上の見通しを立てにくくなりがちです。

TROCCO®はこれらの課題を解決するためのサービスです。」

TROCCO®なら、その課題を解決できます

薬丸:「TROCCO®を導入すれば、課題を解決できます。

初期費用がかからず、マネージドサービスとなっているので、最短1日で簡単に構築できます。

小規模な試用からでも実施可能で、構築・運用も楽々と実現します。全体の運用からデプロイメントまで、我々がカバーします。

OSSのバージョンアップやエラー対応など、運用保守面の機能も充実しています。

さらに、初期費用がかからず、フリープランであれば月額無料です。開発無しでデータ分析基盤が即座に構築できます。

また、広告やSaaSを含む約100種のデータコネクタがあり、豊富なコネクタにより最短5分でデータ連携が可能です。

ニーズに合わせて、データ分析基盤の拡張を迅速かつ低コストで進めることができます。

まずは、気軽に「どんなものか」を試してみてはいかがでしょうか。」

データ分析基盤構築でのTROCCO®の役割

薬丸:「データ分析基盤構築でのTROCCO®の役割とは、売上データや顧客データ、商品データ、広告データなどを一元的に管理し、分析可能な形に加工することです。データウェアハウスやデータレイク、各種アプリケーションと連携して、データの活用を最大化できます。

さらに、サイトの行動ログやメールの開封ログなどの行動データを収集し、分析やマーケティングに活用できる形に加工します。

そして、これらの処理を全体的に自動化する機能があります。

全ての機能が一つに統合されているのがTROCCO®の特長で、データ分析基盤を迅速に構築できます。データの収集と加工、分析への供給を一つのサービスで行うことができ、効率的なデータ基盤構築と活用を実現します。」

データ転送の設定について

薬丸:「データ転送の設定について解説します。データパイプラインの構築には次のステップがあります。

まずは転送元・転送先の選択から始まります。どこからどこにデータを送るのか、どのデータを取得するかを決定します。UIはシンプルな設計のため、データパイプラインが非常にスピーディーに構築できます。

次にプレビューを見てデータを自分の好みに加工できます。任意のデータとの連携が可能となります。」

接続可能なコネクタ

薬丸:「現在、我々のサービスは様々なデータソースに接続が可能です。100種類以上のコネクタを利用して、データパイプラインの作成が可能です。

また、我々のサービスは様々なSFAやMA、CRMといったアプリケーション系のサービスに広く対応していますし、データウェアハウス系のサービスとも広く対応しています。

各サービスからデータを取り込み、データウェアハウスに連携することで、データの有効活用が可能になります。」


データマート生成

薬丸:「データマートの定義を編集するための機能や、SQLを書くだけでデータレイクからデータマートを構築する機能があります。これらはBigQueryやRedshift、Snowflakeに対応しています。

さらに、分析用レポートの生成、名寄せ処理、不要データの排除などを定義でき、任意のDWHにクエリを定期実行することも可能です。

特に、マート生成の定期実行やカスタム変数、Slack通知機能が利用できるのは大きな特長だと思います。

また、画面上でSQLを使ってデータを加工する機能を提供し、SQLを用いた加工操作にも対応します。順番関係や依存関係をドラッグ&ドロップで編集することも可能なので、データの流れを重視し、全体の運用コストを削減できます。

データ管理が必要な場所では、強力なデータ検索機能やビジネス視点でのデータの再利用なども可能となります。」

TROCCO®なら、データエンジニアリングの課題を解決できます

薬丸:「マネージドサービスを利用してデータ分析基盤を手軽に構築・運用できます。設定やデプロイもGUI上で簡単に行え、低い学習コストで運用が可能です。各種バージョンアップの自動対応やエラー対応など、運用保守面の機能も充実しています。

さらに、データエンジニアリングの課題解決にも対応しています。約100種の広告やSaaSとのコネクタを連携可能とし、豊富なコネクタと連携することで、最短5分でデータ連携が可能となります。

「TROCCO®」では、初期費用が無料で、最短1日でデータ分析基盤が構築できます。それにより小規模なトライアルが可能となり、リソースを気にすることなく「まずはどんなものか」を試すことができます。

ニーズに合わせてデータ分析基盤の拡張を素早く、低コストで進めることができます。

TROCCO®は、どのようなデータ活用にも対応可能で、特に多くのデータを使いたいというニーズに対して即座に対応できます。」

TROCCO®により簡単にデータ分析が可能

薬丸:「TROCCO®を組み込むことにより、データ分析を簡単に行うことが可能となります。現在、TROCCO®は14日間の無償トライアルを提供していますので、お申し込みいただけると幸いです。

今日は時間を割いて参加いただいた皆様、ありがとうございました。」

フリープランを始める:https://trocco.io/lp/inquiry_free.html

本記事のまとめ

本セミナーでは、LLMを最大限活用するデータ分析基盤の重要性、チャットボットの可能性、LLMをビジネスに活用し自社のデータを最大限に活かす方法などを詳しく解説しました。

さらに、データ分析ツール「TROCCO®」との組み合わせにより、ChatGPTやLLMを効率的に活用できます。

データ分析に関する課題を抱えている方、ChatGPTやLLMとデータ分析の組み合わせに興味がある方は、本内容を参考に、データ分析の更なる効果的な活用を目指してみてください。

弊社の提供するデータ統合ツール「TROCCO®」は、データの統合や分析、LLMとの統合をサポートする多機能なツールです。データの連携・整備・運用を効率的に進めていきたいとお考えの方や、プロダクトにご興味のある方は以下より資料をご覧ください。

TROCCO® ライター

TROCCO®ブログの記事ライター データマネジメント関連、TROCCO®の活用記事などを広めていきます!