業務改善はAIだけじゃない!プロセスの見直しが本当に効果的だった話
NTTドコモ データプラットフォーム部社員の三上明音です。
私は2025年3月にドコモソリューションズからドコモデータプラットフォーム部に出向となり、現在はドコモ内のデータ活用をする人たち向けに提供しているPochi(ポチ)※1というアプリストアの利活用促進の業務に携わっています。
本記事ではAIを利用して、データ活用事例記事やイベント紹介ページの文章チェックの業務効率化に取り組んだ際の体験談をご紹介します。
社内データ活用プラットフォームPochi※1とは
私たちDP部は社内のデータ民主化を目指し、StreamlitとGoogle Cloudで圧倒的に使いやすいデータ活用プラットフォームを開発・推進しています。このプラットフォームは、24年度は30万時間もの業務効率化を実現し、直近では5,000人以上の社員に利用が拡大しています。
ASCII.jp:NTTドコモ、Streamlit利用の“ポチポチ分析アプリ”開発で社内データ活用を促進 (1/3)
※1: Pochiは社内の開発コードネームです
はじめに
皆さんは業務の中でAIをどのくらい活用していますか?
私の周りではAIの活用が進んでおり、業務効率化に成功している人も多くいます。
そんなにいいものであれば活用しない手はない!ということで「AIを使えば効率化できるはず!」と意気込んでみたものの、思ったほど効果が出なかった経験があります。
「AIを使えば何でも解決!」と思いがちですが、実は業務プロセスそのものに問題がある場合も多いのでは?と気づいたので、その体験談を共有します。
本記事はプロジェクトメンバーである三上と浜松の共著で以降記載します。
AI活用が目的化してしまった
今回私がAIを利用したのは、社内のデータ活用の事例紹介記事やイベントページ内の文章チェックです。
ドコモではデータ活用を積極的にしていこうという方針がありますが、
- 実際にやろうと思ってもどうやればいいのか
- 他の上手くデータ活用している人はどうやっているんだろう?
- 自分の業務と似た業務の人のを真似てみたい
と思う人も多くいます。
そんな方々に向けて、データ活用事例を募り紹介記事を執筆いただき、それを社内に紹介するのが私の仕事の一つです。
活用事例はドコモ内の様々な部署のデータ活用者の方に記事を執筆していただいています。
その記事の内容をチェックして、分かりにくい文章や誤字脱字がないかのチェックや、修正案の検討と執筆者へ修正対応の調整などをしています。
この作業では、ある程度のフォーマットを用意しているにもかかわらず、分かりにくい表現や誤字脱字が散見されました。それらのチェックと修正に多くの時間がかかっていました。
また、複数の記事を同時期にチェックしていかないといけない場合も多くあり、なんとか効率化できないか?という声が担当内から上がりました。
執筆者も我々もお互いに負担を増やさずにチェックと修正が効率よくできないか?をテーマに、AIにチェックをお願いしてみよう!!と実践してみました。
今回文章チェックで利用したAIはLLMのGPT-4.1 miniです。
文章チェックの流れとしては下記のとおりです。
- SharePointのページ払い出し(事例紹介用のテンプレート)
- 執筆者にてテンプレートに沿って記事を執筆
- 執筆後のページを我々がチェック ★
- チェック結果を執筆者に連携し修正の依頼
- 執筆者にて修正
- 3~5を繰り返し
今回は3の部分でLLM(GPT-4.1 mini)を利用しました。(以下、LLMと表記します)
実際にAIにチェックさせてみると、確かに誤字脱字や分かりにくい表現は漏れなく指摘してくれます。
しかし、意図的に使っているカジュアルな表現まで「ビジネス文書として不適切」と指摘されたり、専門用語や社内用語にも過剰な修正案が出てきてしまい、結局、AIの指摘内容を人間が再確認・判断する手間が増え、効率化どころか作業量が倍増する結果に…。

もちろんAIに文章チェックを依頼する際のプロンプトを工夫していい塩梅になるように調整も繰り返しました。
が、なかなかそれもうまくいかず…どんどんドツボにはまっていき、LLMを使いこなすための試行錯誤に時間をとられてしまい本来やるべき業務効率化とは?と、目的を見失いそうになりました。
そもそも何に時間がかかっているのか?
AIでの文章チェックについては、人がチェックをするときと同等かそれ以上に過剰な指摘が出る結果となり、総合的には効率化は難しいという結論が出ました。
ではどうするか?
AI導入で効率化できない理由を考え直し、改めて業務プロセス全体を書き出してみました。
人がチェックしたほうが作業として効率がいいということは、「文章チェック」として指摘の粒度感は問題がなく、他に見直すべきポイントがあるのではないかと、業務プロセスや具体的な作業を洗い出しました。
その結果、「文章チェック」と一言で済ませていた作業でしたが、実際には下記のような対応をしており、純粋な文章チェック以外のところでも時間がかかっていることが分かりました。
- 指摘箇所をコメント表で細かく記載(修正が漏れなくされたかのチェック用)
- 上記コメント表とは別に執筆者と修正の調整をするためのキャプチャ付きの説明資料を作成
- 明らかな誤字脱字、表記ゆれの修正
- 1文が長いものや、分かりにくい文章、文法的に違和感のある文章の修正案検討
- その他レイアウトや文字フォントなどの見栄えに関する微調整
上記のなかで特に時間がかかっていた作業は1、2でした。
これらは確かに管理するうえでも、執筆者とのコミュニケーションをスムーズに行う上でもあった方が良いものではありました。
ただ、資料としては簡略化してもいい部分が多く、その部分で稼働がかかっているということが分かりました。
例えば修正箇所を画面キャプチャとり、修正意図と、修正内容の説明文を付ける…などで、修正結果だけ執筆者に連携しても問題ない程度の誤字脱字の修正についてもすべて同じ粒度感で資料を作成していました。

資料内容の例)
修正前:〇〇アプリが利用してデータ分析をした結果~
修正案:〇〇アプリを利用してデータ分析した結果~
の方が正しい表記なので修正しました など
また純粋な文章チェックとしては3、4であり、特に4については「完璧に仕上げる必要がある」という意識でかなりしっかりと記載内容を読み込み、対応していました。
その際に修正案の検討をするうえで苦慮していたのが、対象の業務に従事していれば分かる用語でも私たちが知らない場合は補足説明が必要か?などを判断するために細かく不明点の確認を執筆者にすることもありました。
LLMで指摘された内容相当を漏れなく洗い出すような感覚に近いようでした。
ただ、改めて本来の「データ活用事例を公開する」目的に立ち返った際に、役割として重要視すべき点は、
- データ活用の一歩を踏み出すきっかけとして事例を知ってもらう
- すでにデータ活用している人も他者の活用事例から新たな知見を得る
という「きっかけ」作りです。
また、社内向けの記事でもあるため、堅苦しくない表現が好ましく、(無い方が良いですが)多少の読みにくさがあっても意味が伝われば問題ないとも考えられます。
そのため「文章チェック」の稼働削減として、今までのやり方を見直し、簡略化してよい点を整理しました。
上記の見直しをすることで、従来10時間程度かかっていた文書チェックが2時間程度で済むようになりました。
最初からAIに頼るのではなく基本に立ち返り業務プロセス・作業内容の見直しをしよう!
今回利用してみた結果としては、新しいツールや便利な⼿法が登場すると、試したくなるのは⾃然なことです。一方で、実際の業務で⾏っている作業内容を詳細に振り返り、改善点を整理することで解決できる点もあることを改めて実感しました。
ただ、今回のような文章チェックの場面でもAIを活用できる場面はあり、主に下記の点でした。
AIを利用したほうが効率がいいパターン
- 分かりにくい文章の修正案の検討
- 表記ゆれのチェック
- 誤字のチェック
- 冗長な表現のチェック
特に分かりにくい文章の修正案はすぐに出力してくれるので、自分で考えるよりも短時間で良い修正案が得られるためかなり効率がいいと感じました。
その他については、命令文をピンポイントで「誤字脱字のチェックして」などシンプルにすることでチェック結果も簡潔に出力されるため、修正完了後の念のための最終チェックで利用する際に見落としなく検出されるので便利でした。
まとめ
今回は「AIへの苦手意識や不信感を自分の中で払拭できるといいな」という個人的な目的もある中でLLMを利用してみました。
結果的に今回はAIを活用するよりも作業内容の見直しで解決できましたが、AIなどの便利なツールを導入する前に、まずは現状の業務内容を詳細に振り返り、そのうえで真に効果のある打ち手を考えるという基本の大切さを痛感しました。
今後も技術の進歩で様々な便利ツールが出てくると思いますが、基本を忘れず、便利なツールを使うことが目的にならないようにしていきたいと思いました!
それではここまでお読みいただきありがとうございました。