こんにちは
シナジーデザイン株式会社 プログラマー / マネージャーのAです。
※
社内向けの記事ですが、AIの導入をご検討中の方も意識した内容です。
―――
今年を振り返ると
今夏「デキテル」に搭載したAI機能が際立った印象を受けています。
AI機能の開発については 過去の記事 でも書いていますが
より上流の、一般的な内容をお話しできればと思います。
SNSでよく見る、「凄い!」みたいな手放しの記事ではなく、
実際の導入を意識した、リアリティのある内容にしています。
まずおさらいとして、「デキテル」のAI機能についてです。
【導入事例】AIによる自動ページ作成機能(デキテル)
自動車業界向けHP作成ツール「デキテル」のいち機能として
AIが自動でページを作成する機能を開発しました。
利用はできるだけカンタンに、
最短、「自動車通称名」を選択するだけでOK。
「集客効果」としては不確実ですが
ページ作成の「たたき台」としては、役立つ機能だと思います。
また、
インパクトのある仕上がりにはなっているので
「デキテル」に関わらず、
CMS界隈全般に広がる”マンネリ感”からは抜け出した機能だと
個人的には思います。
以下、実際に作成したページとなっております。
また、以下のURLから無料トライアルをお試しいただくと、実際にご利用可能です。
この機能開発の後日談として、
導入の前に知っておけばよかった、、、という事柄を
ご紹介できればと思います。
AIに任せた仕事は、10%は失敗します
最重要の前提として、AIは10回に1回は失敗します。
「デキテル」の機能でも失敗は発生していますが、
細かい調整作業で、失敗する確率を落としています。
それでもたまには失敗はするので、
失敗に見えないように、細かい調整作業を施すことになるのですが、
これが、非常に時間のかかる工程になっており
お見積り金額や、作業の進捗が クライアントさまの体感と
ズレてくるポイントの1つになります。
「プロトタイプで動いてるように見えるけど、なんでさらに費用(時間)が必要?」
「この状態で良いと思うんだけど・・・」
と思えても、意外と、開発工程の序盤~中盤だったり。
もうひとつ付け加えると、
プログラマーはキチンと動くように精一杯頑張るんですが、
AIによる作業の100%動作保証は難しく、
ある程度の失敗が発生する前提で、お話を進める必要が出てきます。
業務フローの言語化と、失敗への対応策が必要です
AIによる作業には100%動作保証が出来ないので、
失敗した時の対応策を決めておく必要があります。
人間がタスクを担当している場合、
なにかミスがあれば人間が考え、イレギュラーな対応を行いますが
AIに関しては失敗してもそのままです。
そのイレギュラー対応をさらにAIで…となっても堂々巡りですので、、、
開発の前には
1,現業務フローの言語化
2,失敗した際の業務フローの追加
は最低限行う事になります。
システム開発で言う所の
「要件定義」フェーズでこれを行う事になりますが、
ポイントとしては
システムを、業務フローに合わせる だけではなく、
業務フローを、システムに合わせる考え方をバランスよく持つことが
大事だと思います。
業務フローを変えるのはとても大変なので、バランスの問題ではありますが、、
現在の業務フローにピッタリ合うシステムを構築しようとすると、
かなり大変(≒工数と費用がかかる)な事になると思います。
加えて
そのままAIによるイレギュラー対応フローも追加しますので、
要件定義のウェイトが通常のシステム開発よりも大きくなりやすいと
個人的に思います。
通常の開発よりも、細かい作業が必要です
繰り返しになりますが
AIによる作業は10回に1回は失敗してしまうので、
失敗の内容を厳密に追えるよう、細かくロギング(記録)しておく必要があります。
目には見えてないけど、実は失敗していた、、、という
事例は、ほぼ間違いなく発生します。
そういったときに、何が起こったのかを詳しく調べるための記録が必要になります。
一見、「要るか?」と思ってしまう様な内容でも
とりあえずログを取っておく、くらいの姿勢で丁度良いと思います。
ココも、見積りの体感と実際でズレやすい所になりますが、
後々を考えると、短縮しない方が良いと思います。
以下、あとがきになります。
人間は、人間以外に責任を取らせる方法を知らない(Xから引用)
Xで流れてきたポストの中で、妙に刺さった言葉です。
AIで効率化できるケースは山ほどありますし、
時代的にも、利用は進んでいくと思います。
が
AIが、失敗の責任を取れるケースはまだ無く、
最終的には、人間(≒利用者)の所に失敗の責任が回ってきます。
2024年現在、
いったん、責任とかの面倒な話はまぁ置いといて…な雰囲気は感じますが
一方で、
システム開発に関する責任範囲が小さくなった印象はありません。
「AIだから仕方ないよね」が通用する気がしないんですよね。
自分もたぶんそうですし。
だからこそ、
人間(開発者・利用者含む)は
・失敗の可能性の憂慮が大事であること。
・失敗した時のフローの言語化も大事であること。
なにより、
・それらを適当にしたままでの開発 / 運用が、高リスクであること。
の3つを、念頭に置いて、AIに接するべきだ と個人的には思っています。