この記事はRetty Advent Calendar 2020の21日目の記事です。
昨日は、森田さんのETL基盤でデータを汎用的に処理できるようにした話でした。
はじめに
こんにちは。平野(@MasaDoN22)です。
Rettyデータ分析チームのマネージャーを担当しています。
去年、一昨年に引き続き、分析チームの1年の振り返りとして書きました。
今年を一言でいうと、持てる武器を最大限活用して、目の前の課題に向き合った一年でした。
内容としては、分析チームの役割である意思決定支援・分析民主化・データ基盤・MLに沿って書いた一年の総集編です。
その結果、今年も文量が多くなってしまったので、興味のある分野だけ抜粋してお読みいただけますと幸いです。
本記事の前提となる、Rettyデータ分析チームの役割や過去の取り組みは、以下記事を御覧ください。
意思決定支援
今年も分析チームは、データ分析を用いて意思決定に貢献するべく活動しました。さまざまな取り組みをしてきた中で、大きかったトピックは以下の2つです。
- 定性データ(UXリサーチ)の活用に領域拡張
- コロナ禍をデータ分析で立ち向かう
1つ目は、専門性の拡張と、その実践になります。2つ目は、コロナ禍で飲食店が大打撃を受ける中、飲食店・ユーザーさんのために分析チームが取り組んだ内容です。
それぞれご紹介していきます。
定性データ(UXリサーチ)の活用に領域拡張
以前までの分析チームは、サービスデータ(マスタデータ・アクセスログ)の定量データのみでのデータ分析が主でしたが、今年からユーザーインタビューから得られる定性データも扱って、データ分析を行うようになりました。
取り組みの背景・やり方については以下の通りです。
背景
- プロダクト組織において意思決定の正しさ(=確度)がより求められるようになった。
- 定量データの分析は課題の場所は特定しやすいが、その理由の特定はしがたい。
- 理由の特定のためにUXリサーチを導入することにした。
やり方
- トップダウンの導入で行動しやすい状態をつくる。
- UXリサーチの指南役をみつける。
- 指南役が実務で活躍できる関わり方をきめる。
- 一通り実践してナレッジを組織に蓄積する。
- 組織的に回るように運用体制をつくる。
詳細は今年の6月にnoteを書いているので、よければ御覧ください。
結果
ユーザーさんへの価値提供、リサーチスキルの向上、ユーザーインタビューのカルチャー形成の観点で少しずつ結果が出てきています。またnoteに書いてない成果としては、コロナ禍における消費者・飲食店リサーチ、プロダクト戦略の策定に寄与したことです。コロナ禍の話は、本記事の別パートで書いてますのでそちらを御覧ください。
プロダクト戦略の策定で具体的には、以下の問に答えるためにUXリサーチを行いました。
- どのようなユーザーさんをターゲットとするか
- ターゲットのニーズは何か
- ニーズに対してどのような価値を提供するか
定性データだけではなく、定量も組み合わせて約1年かけて策定した長期プロジェクトでした。その中で、今年前半で学んだUXリサーチのノウハウは非常に役立ち、戦略自体の正しさに大きく貢献したと思います。
詳細な内容は、また別の機会でご紹介できればと思います。
関連記事/動画
分析チームが書いたUXリサーチに関する記事、登壇記事と動画のご紹介です。
コロナ禍をデータ分析で立ち向かう
今年、新型コロナウイルスにより飲食業界は大きな打撃を受けました。直近でまた感染者が増えており、現在も依然として状況が良いとは言えませんが、その中でも緊急事態宣言が発令期間の4月・5月は、飲食店への打撃として間違いなく大きな時期だったと言えます。
緊急事態宣言が発令されてからRettyとして、飲食店やユーザーさんのために何ができるかを考え、様々な取り組みを行ってきました。その中で、分析チームとしてデータ分析の側面から貢献するために行った取り組みをご紹介します。
(1)オンラインで飲食店・ユーザーさんへのインタビューを社内へ生中継
緊急事態宣言の発令されて、まず最初にやるべきだと考えて実施したのが、飲食店・ユーザーさんへのオンラインインタビューを社内に中継することでした。これは今までとガラリと変わってしまった消費者ニーズや飲食店の状況を正しく把握するためです。
というのも、緊急事態宣言が発令された当時、起きていた問題としては、飲食店や消費者が今何に困っているのか・何を欲しているのかを正しく理解していなかったのです。そこで、状況を正しく伝えることが必要だと考え、プロダクトの方、営業の方、CSの方と協力して、オンラインインタビューを行いました。また、社内に広く伝えることが大事なため、議事録やレポートとして共有するのではなく、インタビュー風景を社内に中継する取り組みを行いました。
その結果、今までのような議事録やレポートよりも肌感を温度感とセットで伝えることができたと思います。また、インタビューで得られた情報からプロダクトへの機能開発にも繋がりました。
(2)変わる消費者ニーズをアンケートで調査
コロナによって変化した消費者ニーズを外食関係者に届けるために、消費者ニーズをアンケートで調査して、記事としてリリースする取り組みを行いました。この取り組みは広報チーム起案で、分析チームが協力する形で実施されました。
緊急事態宣言が発令された当時、週単位で状況がアップデートされるためアンケート調査から記事リリースまでのスピードが重要でした。広報チームと一丸となり、スピード感をもってアンケート記事のリリースを行いました。
スピードの点だと、(1)で行ったインタビューが記事のリリーススピードに寄与したと思います。インタビューによって肌感がアップデートされてることから、アンケートで行う上で重要な仮説出しをスムーズに行うことができたからです。
アンケート記事の効果として、実際どの程度お役に立てているかはわかりませんが、記事自体の反響はよく、アンケートデータに対してネット上で様々なコメントをいただけました。
実際のアンケート記事は以下になります。よければ御覧ください。
(3)サービス内のユーザー動向を毎日モニタリング
サービス内の定量データを活用して、外食全体の需要動向やニーズの変化をキャッチできるような取り組みを行いました。感染者数の増加に伴い減少する外食需要や、逆に伸びている領域を掴むことで、先手のアクションができるようにすることが狙いです。
例えば、テイクアウトの需要が4~5月増えたが、6月以降は落ち着いていたことが分かったり、テラス需要が上がっていたことが分かったりしていました。これらの情報は、飲食店向けの商品やプロダクトの機能を考える材料として機能していました。
実際に行っていたモニタリング方法としてデイリーレポートをご紹介します。以下の画像が実際のレポート風景です。
(分析レポートに対してスタンプやコメントなどのリアクションが発生している様子)
著しく変化する状況の中、単純にダッシュボードを提供するだけではなく、分析レポートを毎日Slackに投稿する取り組みを行いました。
この取り組みを行ってくれたのは、今年4月に入社した新卒の本田(@tai4ref)です。新卒入社していきなりフルリモート環境となり、大変だったと思いますが、毎日しっかりレポーティングをしてくれていました。始めはテキストベースでわかりにくかったレポートが、数ヶ月取り組むことで、わかりやすく、効果的なレポートを出せるようになっていました。彼自身のスキル向上にとっても非常に良い取り組みだったと思います。
本田の入社インタビュー記事 www.wantedly.com
学び
コロナ禍パートの最後は、今回の経験を通しての学びについて触れたいと思います。
今回のような有事の際は、とにかくデータの鮮度が求められました。状況が変わる中、消費者のニーズ変化を的確に把握して対策を講じる必要があるからです。その点でいうとRettyは、高いデータの鮮度でコロナ禍に立ち向かうことができたと思います。
要因を振り返ってみると、ユーザーさん・飲食店と話せる関係性、仕組みの存在が大きかったと思っています。
仕組みに関しては、前述した通り今年始めからUXリサーチを導入していたこともあって、オンラインでのインタビューや生中継を行う仕組みが整っていたためスムーズに実施できました。また、ダッシュボードでのモニタリングやアンケート自体も常日頃から行っていることもあり、有事のときであっても瞬時に対応できたと思います。
関係性に関しても、非常に大変な時期であったにも関わらず、飲食店・ユーザーさんの方々のご協力のおかげで素早いインタビュー開催ができて、現状を正しく把握することができました。ユーザーさん向けアンケートに関しても開始してから必要数が集まるまでがとても早かったです。このように協力してくださる飲食店・ユーザーさんと関係を築けていることが、有事のときに重要であると実感しました。
データ分析チームとして、有事のときでも現状を正しく伝えることができるように、日頃から備えること、協力してくださる方々との関係性を大事にすることを、今後も忘れずに取り組んでいきたいです。
分析の民主化
Rettyでは組織全体の分析レベルの底上げのため、分析の民主化を掲げて活動しています。去年まではデータの民主化を掲げていましたが、データの民主化だとスコープが「データ出し」までに捉えられてしまうことから、分析の民主化と名称変更しました。
分析の民主化のために様々な取り組みをしていますが、今回はトピックとして2つご紹介します。
- BigQueryExpertによって非アナリストのクエリ力が向上
- PdMの登竜門として、効果の芽が出てきた
BigQueryExpertによって非アナリストのクエリ力が向上
BigQueryの勉強会を行い、自らデータ出しを行える人を増やしました。
去年取り組んだDWH層の開発により、DWHからのデータ出し難易度は、以前のテーブルがバラバラ状態のときに比べ、非常に低い状態を作れていました。
そこで、キャッチアップコストが低くなった今年に、利用者の拡大をすべくBigQueryの勉強会を行いました。
BigQueryExpertとは
SQL未経験からでもBigQueryで出したいデータを出せるようになるための学習プログラムのことです。分析チームで運営をしています。
やり方
演習形式で勉強会を行いました。具体的には以下のような内容です。
- 週2回×1hみんなで集まり、ひたすら演習問題を解く
- 分からない点を講師(分析チームの人)に質問放題
提供価値
難しいデータ出しでない限り、自らデータ出しができるレベルの習得を提供価値として定めました。以下の表は、もう少し詳細な習得スキルの内容です。
受講コスト
分析チームが上記のスキル習得に向けてコミットする代わりに、受講者としては以下のコストを払っていただきました。
- 最大3ヶ月の期間
- 期間中でレベル3に到達した場合、本人の意思により今プログラムを終了することができる。
- 毎週3hの時間確保
- 演習2回: 2h
- 予習/復習: 1h
※人によっては、個人目標に組み込む
結果
今回の取り組みによって、事業サイドの部門(プロダクト部門・FRM部門・広告コンテンツ部門)では、データ出しを部門内で概ね完結できるようになりました。
部門内で完結できるようになった結果、よりスピード感が増し、分析チームとしては、より専門性を要する分析業務に時間を充てられるようになりました。
PdMの登竜門として、効果の芽が出てきた
分析チームでは、PdMの登竜門としての機能を果たすべく、PdM志望の人材を受け入れています。そして今年、効果の芽が見られてきました。(わかりやすくPdMと書きましたが、必ずしもPdMだけではなく、営業企画・事業企画・経営企画と、様々なキャリアに繋がる立ち位置として機能させたいと考えています。)
分析チームに所属するデータアナリストは現在3名いますが、内2名がPdM志望で、一人は今年の10月にフロントエンドエンジニアから職種チェンジしてきました。
メンバーも比較的若く、学習意欲が高いことも特徴的です。
上記メンバーが成長するためにも、私は育成の仕組みが重要であると考えています。
学習意欲やモチベーションの高いメンバーとはいえ、頑張りの矛先を間違えると遠回りになるからです。
そのため、頑張りが掛け算で成長に繋がるように、育成の仕組みに力を入れています。
以下が、具体的に行っている取り組みです。
目標設計
- オンボーディングプランの設計
- 半年の目標設計を行う 。
- アウトプットの数と質を目標に入れる(SP、BP)
- SPとBPについては過去記事に記載。
- アナリストスキル定義と課題設定
- アナリストとしてのスキルを定義表を元に、能力開発の課題を決める。
スキル向上の仕組み
- BigQueryExpertの実施
- 前述した通り。
- アウトプットのレビュー文化形成
- 分析アウトプット(SQLや分析レポート)のレビューが貰えるチャンネルを用意。分析チームだけではなく、誰でも利用可能。
業務サポート
- ASK文化形成
- 分析に関することを相談できるaskチャンネルを用意。分析チームだけではなく、誰でも利用可能。
- メンター制度
- データアナリストとして自立できているメンバーがメンターとなり、メンティーを業務面でサポートする制度。
結果
上記に挙げた仕組みに加え、本人の頑張りにより、着実に効果が出てきていると感じています。
実際に分析チームに入って1年絶たない、松田と本田が振り返り記事を書いてくれています。よければ御覧ください。
二人共、かなりのスピードで成長しています。本人の頑張りが一番だと考えていますが、頑張りが掛け算になる仕組みはとても重要だと捉えています。
その点において、Rettyデータ分析チームは仕組みとして整っている自負があります。将来PdMを目指したい人、是非分析チームを登竜門として使って下さい。
もう一人、分析チームのエース飯田(@i_dayu_to)の成果をご紹介します。
彼は、2019年に新卒で分析チームにジョインし、新人賞を受賞した後、全社的にも重要なプロジェクトリーダーに抜擢され、見事目標達成に至りました。
新人賞受賞までの話は以下インタビュー記事を御覧ください。
新人賞を受賞とその後の活躍もあり、今年の後半にはプロダクト部門の戦略本部リーダーに抜擢されました。
戦略本部とは、プロダクト部門に複数あるミッションを束ね、プロダクトの重要指標の目標達成に責任を持つ役割です。
戦略を策定すること、展開のために各ミッションのMGRと協働することが求められる、非常に重要で難易度の高い役割を果たす必要があります。
彼にとっては意思決定の支援から意思決定をする側への初の挑戦でした。
毎週の1on1では毎回「プレッシャーがヤバい・・」「今週も何とか乗り切れた・・」と大変そうな発言もありましたが、結果としては高い目標を達成しました。
そして、彼は来年分析チームを卒業し、プロダクト部門へ異動になります。
分析チームとして初のPdM登竜門として、良い事例になるよう異動先でも頑張ってほしいと思っています。
データ基盤
データ基盤として今年取り上げるトピックは以下3つになります。
- データ基盤の刷新
- チーム化に向けた取り組み
- 情報セキュリティレベルの引き上げ
アーキテクチャ・組織・セキュリティと異なる分野ですが、どれも大きな取り組みで大変な内容でした。それぞれご紹介します。
データ基盤の刷新
今年の春、長いデータ基盤の歴史によって複雑化されていたデータパイプラインを、できるだけコンポーネントを使い回せる形でシンプルな構成に刷新しました。
当時抱えていた問題点を書くと長くなるので割愛しますが、複雑化されていたデータパイプラインの移行は、システム移行だけではなく、BigQuery上のデータソースの移行も必要でした。
それ故、影響範囲としてはデータ基盤を利用したサービス(ダッシュボード・分析レポートなど)と広く影響します。サービス利用者への影響を低くするためにも、移行作業をスムーズに安全に行う必要がありました。このような状況の中、プロジェクトをリードしてくれたのがデータエンジニアの竹野(@takegue)です。
彼が現状の問題点を見定め、基本方針を示し、分析チームメンバーを巻き込んで進めてくれました。SLO、SLIの定義、それに伴う各ステークホルダーへの調整と、設計から段取りまで見事な働きでした。
それ故、大きな問題もなく無事プロジェクトを完遂することができました。
結果、データパイプラインとしてのパフォーマンス改善は勿論のこと、運用面のコスト削減、キャッチアップの容易さにも繋がりました。
このプロジェクトの内容に加え、過去のデータ基盤の歴史について詳細に書かれている記事が以下です。よければ御覧ください。
このプロジェクトを最後の置き土産として、竹野はRettyを卒業しました。彼とはデータ分析チーム立ち上げ時から二人三脚で歩んできたため、とても寂しさがありました。
ただ、それよりもこれまでの取り組みに対して感謝の気持ちのほうが大きいです。
今まで本当にありがとう!
チーム化に向けた取り組み
データ基盤の一人体制から二人体制となり、チーム化に向けた取り組みを行いました。具体的にはスクラムの導入です。導入の背景、どのように行ったか、結果についてご紹介します。
データ基盤のオーナー竹野の卒業によって、データ基盤の引き継ぎが行われ、一人体制から二人体制になりました。一人はデータアナリストからの移動、もう一人は今年5月に中途入社された方です。2名ともデータエンジニアとしてのキャリアはなく、ゼロからのスタートです。
またこのタイミングで私自身も、以前よりもデータ基盤への関与を強める方針としました。
このように新体制の3名で新たにスタートを切りましたが、始まってすぐにチームとしての問題が発生し、すぐに対策を講じる必要性が出てきました。具体的には以下のような問題です。
- 誰が何をやっているかがわからない
- 個々人が自分の持ち場で作業をしており、タスクの共有や知見の共有がされていない状態。 結果、個々の抱える問題がわからず、協力しあえる関係が築けていない状態に陥る。
- 何でも依頼をすぐに受けてしまう
- 個人に直接依頼が来る状況で、個々人の判断で受け入れをしている状態。結果、タスク過多状況に陥る。
つまり、基本的なチーム運営ができていない状態でした。
故に、解決方針はシンプルにチーム運営を行うことです。Rettyではプロダクト開発チームがスクラムを導入していることもあり、一定の知見がある状態でした。まずは守破離の守ということで、チーム運営のやり方はスクラムを採用しました。
まず一番最初にやったことは、詳しい人のサポートを得ることです。社内のスクラム詳しい人にコーチとして入っていただき、基本的な取り組み内容を教えてもらうこと、実際に振り返りの場に参加してもらうことを行いました。
具体的には、以下
<週次>
- スプリントプランニング
- KPT(振り返り)
- スプリントレビュー
- 数値モニタリング
<日次>
- DailyScrumによるタスクの進捗確認/相談
(データ基盤チームのプロダクトバックログ)
基本的なチーム運営をするための所作を学びながら実践しました。
取り組みの結果は以下になります。
- 当初よりもお互いのやっていることが把握できるようになり、問題に対して相談できるようになった。
- チームでやるべきことの優先順位・期日設定をするようにしたことで、直で仕事を受けることが無くなり、タスク過多の状況が改善された。
- 上記の問題解決以外にも、データ基盤のキャッチアップに対しても良い効果を得られた。
一方で、課題としては共通の目的・目標の存在が弱く、まだチームというよりかは作業グループに近い状態です。来年は作業グループからチーム化へ。チームから組織とのアラインメントを図れる状態まで目指していきたいです。
情報セキュリティレベルの引き上げ
ユーザーさん・飲食店の大切な情報に関するセキュリティを更に高いレベルに引き上げるべく、DWH(BigQuery)のユーザー権限、データの管理規定の策定と展開を行いました。
目標と打ち手として以下です。
- ユーザー権限をテーブル単位まで管理できるようにする
- 各ユーザーグループに付与される権限の整理
- 申請フローの構築
- データ管理の対象をデータソース・中間テーブルまで管理する。
- 個人情報・重要情報の中間テーブルの管理体制づくり
- 管理漏れ対策の、DWHのデータカタログの作成
上記取り組みを推進してくれたのが、データアナリストからデータエンジニアへ転向した渡邉(自己紹介が記載されている記事)です。今回の管理体制を作る上で重要だったのが、DWHのメイン利用者であるデータアナリストのワークフローを阻害しない設計にすることでした。
その点でいうと、渡邉はデータアナリストとしての経験がある上、入念にデータアナリストメンバーとの会話を行うことで、うまく設計してくれました。
具体的な設計内容は別の機会でご紹介できればと思いますが、
この取り組みの結果、必要な人が必要なデータにだけアクセスできる状態を作れました。また、管理漏れを防ぐ仕組みも導入できたことで、以前よりも安全性が高まったと言えます。
ML/アルゴリズム
ML領域では、継続的に価値創出するために、運用され続ける仕組み作り、事業インパクトに繋がる課題選定を行うことで、一定の成果を得られたのでご紹介します。
Rettyでは以前から、ML領域の取り組みは行っていました。ユーザーさんが投稿してくださる口コミや画像データ、サービス内行動データを活用して、自然言語処理・画像処理・レコメンドなど様々な取り組みにチャレンジしてきました。
モデルとして精度が良かったもの、実際にKPI改善ができたもの、一定の成果が出せていたと思います。
ただ一方で抱えていた課題としては継続性でした。具体的に発生していた事象として、保守運用されずに停止してしまうことや、サービス内コンテンツの優先度として低いことから別コンテンツにリプレースされてしまうケースがありました。つまり、作ったけど継続しない状況だったのです。
そのため、ML領域の目標として、まずは継続的に価値創出できる状態を目指すことにしました。簡単にいうと、運用されている状態です。
最初に行ったのは、以下の2つが発生する要因分析です。
- 保守運用されずに停止してしまう
- リプレースされてしまう
「保守運用されずに停止してしまう」事象に関しては、環境がないこと、運用するインセンティブがないことが要因として考えられました。
そもそも運用に必要な最低限の環境(監視・ワークフローサービス)が用意されておらず、運用保守のコストが高い状況でした。また、目標も個人に紐付いていたため、長期的に運用要素の目標を入れることが難しく、運用が作った当人のオーナーシップに依存する状況に構造上なりやすかったのです。
「リプレースされてしまう」事象に関しては、サービス内での優先度が落ちることが要因です。優先度が落ちる要因としては、全体のユーザー体験に組み込まれていないこと、事業インパクト(ユーザー体験向上・売上向上)に繋がっていないことが要因として考えられました。
前者に関しては、ボトムアップ始動だと発生しやすいと考えており、後者は課題選定の問題だと捉えています。
まとめると以下になります。
- 運用の環境がないこと(保守運用コストが高い)
- 運用のインセンティブがないこと(個人依存の運用)
- 全体のユーザー体験に組み込まれていないこと(ボトムアップ始動だと発生しやすい)
- 事業インパクトがないこと(課題選定の問題)
そして、要因分析の結果を踏まえ解決方針を立てました。
以下が解決方針です。
- 持続的に運用される仕組み作る(環境・体制)
- POとVPoEの協力を得て、事業インパクトに繋がる課題設定を行う
持続的に運用される仕組み作る(環境・体制)
MLサービスが持続的に運用されるために、ML基盤のリリースと、分析チームで運用する体制を作りました。
方針としてはできるだけコスパの良い運用体制です。運用メンバーも少なく兼業のため、精巧さよりも容易さが重要でした。そのため自前orマネージドでいうと後者を取りました。AWSのML系サービスを使った構成です。
POとVPoEの協力を得て、事業インパクトに繋がる課題設定を行う
POとVPoEに協力していただき、事業インパクトに繋がる課題設定を行いました。課題としての候補は分析チームから提案し、選定の判断はPOとVPoEと一緒に行いました。また、決めてからも定期的に進捗共有や相談をしつつ進めていきました。
実際に選定した課題は、画像の自動分類です。ユーザーさんの投稿を料理/内観/外観/メニューの中から適切なカテゴリに分類する課題です。
今までクラウドソーシングを活用して人力で分類しており、オペレーションコストとして一定の金額が掛かっていました。
色々課題がある中で画像分類を選択した理由は、「金銭的インパクト」「ML技術が貢献する可能性が高い」「サービスとして普遍的に必要な価値」であると判断したためです。
結果
具体的な内容は、実際に開発を担った渡邉に譲るとして、結果は成功です。
運用観点では、リリースされてから約半年以上たっておりますが、今も尚安定して稼働し続けています。事業インパクト観点では、年間コストを大幅に削減することができました。
また、運用・事業インパクトの実績だけではなく、今後のMLプロジェクトでも使える資産形成にも寄与したと考えています。
今回のMLプロジェクトは決して派手さなかったものの、Retty組織として着実な進歩を得たと考えています。ML活用を目的にしすぎると失敗すると思っていますが、技術投資としては今後もチャレンジしていきたい領域です。
今年の総括
去年のアドベントカレンダーで掲げた今年の展望が以下になります。
- 専門家としてのスキルの基準を上げて新しい発見・観点を提供していく
- データ民主化に向けて、ツール作り・育成・ガバナンス強化・コミュニティ活動
- ①PdMが自ら分析ができるように支援していく
- ②データ領域におけるガバナンスの強化
- 機械学習でプロダクトの成長に貢献する
どれも簡単ではありませんでしたが、みんなの頑張りで概ね達成できたと思います。
ただ、この中でやり残したのがデータ領域におけるガバナンスの強化です。今年はコロナ影響によって目の前の成果創出や、チーム体制の安定化を重視したため取り組むことができませんでした。
(具体的な内容は去年のアドベントカレンダーを御覧ください。)
来年こそはチーム一丸となって取り組んでいきたいです。
また来年はさらにML/アルゴリズムへの投資を強めていきたいと思っています。
最後に
長々と書いてしまいましたが、最後までお付き合いいただきありがとうございました。
Rettyのデータ活用のレベルを上げることにコミットしたいと思える方、是非お力添えをお願いします。
まだまだ課題だらけで、乗り越えるには強い仲間が必要です。
もし少しでもご興味ありましたら、以下の募集リンクor平野(@MasaDoN22)に直接ご連絡ください。