はじめに

taskey株式会社の運営するチャット小説アプリ「ピープ(peep)」では、2019年5月よりビッグデータ分析基盤向けデータ統合自動化サービス「 trocco®」(トロッコ)をご活用いただいております。
スタートアップ企業では専任のデータエンジニアがいることは少なく、アプリケーションエンジニアが分析基盤を整備しなければならないシーンがあるかと思います。
今回お話を伺うtaskey株式会社様も「ピープ(peep)」の分析基盤を構築する中で、同じ問題に直面しました。本来アプリ開発に時間を割かなければいけない状況の中、いかに最短時間で目的を達成したかを、CTO 深見将一様とエンジニア 田代創大様にお話を伺いました。

taskey株式会社 CTO 深見将一様
ー 全ての事業のPMを担当。

taskey株式会社 エンジニア 田代創大様
ー 分析・分析基盤、アプリケーション、インフラを担当。

株式会社primeNumber 執行役員CPO 小林寛和(聞き手)

(左から、taskey 田代様、深見様、弊社小林)

taskeyとは

~“今の形”に沿うコンテンツを追求し続ける~

ー taskeyとその事業内容を教えていただけますか?

深見:taskey株式会社はチャット小説アプリの「ピープ(peep)」を運営をしています。

当社の強みは、最近ではユーザー投稿型のチャット小説が主流な中、すべてスカウトしたプロの作家さんが手掛けたオリジナルコンテンツを提供しているというところです。
従来の小説という形式にとらわれず3-5分で読めるチャット小説や、漫画をチャットにしたタップコミック、作品の中に動画が入るシネマ小説、サウンドが流れるサウンドノベルという、スマートフォンに特化した、クオリティの高い物語を配信しています。さらに、スマートフォンだけでなく“今の形”に沿うコンテンツを追求し続けています。

また日本の出版市場は長期低落傾向が続いていますが、チャット小説アプリ「ピープ(peep)」のダウンロード数は、2019年8月に100万ダウンロードを突破し、好調です。

資金調達についても、2018年7月に1.5億円、2019年5月に2.7億円を達成しました。

分析・分析基盤について

~DWHにBigQueryを採用し、MySQLやElasticsearchからデータを集約~

ー事業において、どのような指標を重要視していますか?

深見:社内にはユーザーの行動を解析する様々な指標をおいていますが、その中でも一番重視しているのはアプリ内課金率ですね。それに付随するKPIに関してはサブスクリプション型モデルで、無料ユーザーから1週間トライアルへのトライアル転換率、そこから有料への転換率、退会率を注視しています。

ー指標を算出するために、どのようなデータを収集していますか?

田代:課金情報・ユーザー行動ログ・読書ログを見ていますね。

課金情報は各ストア(Apple/Android)が提供している購入履歴から取得し、トライアル転換率などを集計しています。ユーザーに関するデータはMySQL内にあるので、ユーザーをセグメンテーションした上で、行動ログを見ています。読書ログは、作品内の離脱場所などをElasticsearchに保存しており、トライアル転換に寄与する作品の分析等を行っています。

  • 課金率やトライアル転換率など:Apple/Androidの購入履歴
  • 行動ログ:
    • 流入経路(Adjust)
    • アプリ内行動(MySQL)
  • 読書ログ:Elasticsearch

ー収集後のデータは、どのように蓄積・活用していますか?

田代:当初はMySQL内にデータを蓄積し、Excelで可視化していました。

しかし、分析対象データが様々な場所に分散しているため、1箇所に統合したいという課題があり、DWHの利用を検討し始めました。

データの可視化もExcelでは限界があり、ダッシュボードツールを検討し始めました。

DWHはRedshiftとBigQueryの導入を検討し、BigQueryを選びました。

1)技術面:ドキュメントの量、2)当時の有名企業の採用の流れ、3)スモールスタートが可能な料金体系という理由でBigQueryを導入しました。

また、ダッシュボードツールの方はRedash、Superset、Metabaseの3つを比較検討し、Redashを採用しました。クラウド版ではなく、Herokuで自社ホスティングしています。

蓄積したデータは、新しい作品を読んでもらうためのユーザーの活動度合、チャーン、今後どういう作品を作るか、広告出稿の分析などに活用しています。

また、ダッシュボードはオフィス内の大型ディスプレイに表示しており、普段から皆がKPIに触れる環境を整えています。

「trocco®」導入について

~時間を短縮できるサービスは「trocco®」だけだった~

ー「trocco®」導入の際、他社サービスと比較しましたか?

田代:データ統合ツールとしてはEmbulkを検討していました。自前で実装・運用する方法を検討していましたが、かなりの時間を要すると思っていました。

深見:従業員数は正社員、インターンや業務委託を含むと約25名 ぐらいの会社だからこそ、「 trocco®」を導入してデータ分析工数の削減を図り、時間を最優先で考えたかったんです。

たとえば、初期開発でのMySQL+Elasticsearch+Repro+Adjustを統合し運用体制まで整えるとなると初期実装に2人月かかり、今後追加したいデータベースが増えるたびにさらに数週間とかかっていきます。
一方「 trocco®」では、導入は1~2週間で済み、運用保守も月間0.5 ~ 1時間とかなりの時間短縮になります。他社サービスも見つからず、「 trocco®」以外の選択肢がなかったです。

ー「trocco®」を導入して、どの様なメリットを感じましたか?

田代:データ分析基盤の導入は「 trocco®」が初めてなのでデータ統合ができるようになったというメリットはもちろんですが、サポート面で大変満足しています。特に追加要望開発に柔軟かつ高速で対応してくれるということがあげられます。

深見:田代くんのメリットと重複してしまいますが、返信が早いというのは非常に助かっています。やはり一般的な企業ですとメールサポートが主になってしまい、返信が次の日来るといったスピード感になってしまいます。その点、「trocco®」さんとのコミュニケーションはSlackで完結し、レスポンスのスピードも早いので非常に助かっています。

ー逆に「trocco®」の導入に際して課題はなかったのでしょうか?

「 trocco®」が読書ログに使用しているElasticsearchに対応していなかったことは課題としてありますが、すぐにSlackで質問ができ、対応をしてくれることによって解消できました。

「trocco®」への期待

~「データ転送サービス」から、「分析基盤全体の課題解決」へ~

ー「 trocco®」は効率的なデータ統合・転送機能を軸に、今後もデータソース拡充などに取り組んでいく予定です。もう一つ大きな取り組みとしては、統合だけでなく、分析基盤全体の課題解決に取り組んでいます。例えばデータ収集、統合後のデータ管理、データのビジネス活用支援がこれに当たります。

ーその他、taskeyから「trocco®」へ期待・要望はありますか?

田代:ジョブトリガーですね。

ーありがとうございます。時間間隔で制御しているところをトリガーで制御してほしいというご要望は多く、2019年10月頃のリリースを予定しております。

深見:あと、分析コンサルがあったら助かる企業は多いと思います。なんとなくデータを出してみたというような分析をしている企業は多いと思うんですが、本当にその結果が正しいのか・・・っていう疑問を抱えた企業は結構多いと思うんですよね。多分ですがどの企業でも追ったほうがいい分析データってあると思っているので、導入編としてどの指標を追うべきかなどを教えてくれたら助かると思います!

ー「基盤をどう作る、さらにどのように分析するか」、そういった観点でのコンサルテーションをご要望のお客様は結構いらっしゃいます。trocco®ではお客様の分析基盤構築におけるベストプラクティスが貯まっており、最適な基盤構築方法をご提案するコンサルテーションも行っていたりします。

taskeyのロードマップ

~今後の課題は「大きな視点での分析」と「機械学習」~

ー最後にtaskeyの今後を教えてください。

深見:今後はSQLを書ける人員を増やそうとしています。可視化されているKPIをベースに、施策を高速なイテレーションで回せてはいますが、より大きな視点で分析が行えていないのが課題です。

あとは、DWHに統合されたデータを利用した、レコメンドや機械学習は取り組みたいと思っています。作品に紐づくタグとユーザー行動ログをかけ合わせ、たとえば「青春・10代」など、あるユーザーが読みやすいタグをレコメンドするなど・・・

―深見様、田代様、ありがとうございました!

投稿者

hirokazu.kobayashi
9月 25th, 2019

データ前処理工数削減なら、trocco®

電通デジタル様やギブリー様のように、データ前処理工数を削減するには「trocco®(トロッコ)」が最適です。

まずは資料請求
「サービス紹介ページ」でtroccoの機能・メリットを詳しく見る