【イベントレポート】Azure AI セミナー&LT~開発者のための新しいツールと生産性向上のご紹介 ~

こんにちは!TECH Street編集部です!

2024年10月3日(木)に開催した、 「Azure AI セミナー&LT」のイベントレポートをお届けします。今回はMicrosoft社のシニア クラウド アドボケイト寺田氏をお招きしてMicrosoft Azure Boostcampで発表されたAzure AI最新情報をセミナー形式でお話いただきます。

登壇者はこちらの方々!
雨谷 健司 /パーソルキャリア株式会社
寺田 佳央 /マイクロソフト・コーポレーション 

早速、内容を紹介いたします!

※ Microsoft Ignite 2024にて「Azure AI Stuido」から「Azure AI Foundry」に改称されましたが、こちらの記事では、イベント開催当時の名称「Azure AI Stuido」を使用しております。

 

まずは、パーソルキャリア株式会社 雨谷さんの発表です。

Azure AI Studioを使用してRAGのPoCを進めた話

drive.google.com

雨谷:本日は「Azure AI Studioを使用してRAGのPoCを進めた話」というタイトルで発表いたします。

目次

以下の流れで進めて行きます。

  • RAGとは
  • 事例紹介
  • Azure AI studioのおすすめ機能
  • RAGのPoCを進めてみて感じたこと
  • まとめ

本発表は、Azure AI studioに興味があったり、RAGを検討中の方がその良さを知ってもらいRAGを推進するうえでヒントとなるものを届けたいと思っています。
そこで私が実際に経験した事例を取り上げて、みなさんにAzure AI Studioのおすすめポイントなどをお伝えしていきます。ただ時間の関係上、詳細な事例等はお話できないのでよろしければ質問と回答についてもご覧ください。

RAGとは

RAGについて簡単にご説明いたします。まずLLM単体では、LLMが学習していない独自情報などは上手く回答できません。しかし、RAG(事前に用意したナレッジベースから検索して、プロンプトに追加情報を埋め込むこと)を使用することで、LLMが学習していない情報も回答が可能になります。
ユーザーから見るとインターフェースは変わりませんが、実際にRAGの裏側で何が行われているのかというのは、下図の右側に示してあります。

RAGの処理の流れ

ユーザーから質問があるとオーケストレータを経由して、LLMに検索キーワードを作ってもらいます。そして作った検索キーワードを使って事前に用意しているナレッジベースに問い合わせ、返ってきたテキスト情報を再度プロンプトへ埋め込み、LLMへ問い合わせをします。すると、ドキュメントを加味した回答を生成してくれます。
ここで、オーケストレーターとは、RAG全体の処理を定義し、ナレッジベースやLLMと仲介する役割を担うサービスや処理を指します。

AzureにおけるRAGの実装

RAGの構成要素としては、大きくLLMとナレッジベース、オーケストレータがあると考えています。Azureにおいては、その中でもオーケストレータの実装方法にバリエーションがあると思います。

AzureでのRAGの構成(一例)

 

最近、ナレッジベース側の実装の事例もバリエーションが増えていることを感じておりまして、公式ドキュメントで公開されている、Azureのベクトル検索用サービスのディシジョンツリーをご紹介いたします。たくさんのサービスが展開されていて、AI searchは選択肢の1つとなっています。

Azureのベクトル検索用のサービスディシジョンツリー

 

オーケストレータによって実装のバリエーションが出るとお話しましたが、では実際にどのような実装になるのかをオーケストレータごとに簡単にまとめました。使用するオーケストレータごとに、柔軟性や実装コストはトレードオフの関係にあると考えています。

AzureにおけるRAGに実装

事例紹介

今回取り上げる事例の目的としては、社内の類似施策の情報検索の効率化です。
過去の社内施策資料をデータソースとしたRAGによる検索システムにより、社内で新しい施策を検討する際に必要な過去の施策情報の検索効率化を目指しました。

前提として、ナレッジ活用に向けたシステムの運用整備を進めていますが、これまで蓄積したナレッジも活用したいというニーズがありました。一方で、蓄積されているナレッジはエクセルやパワーポイントの資料が中心でフォーマットが統一されておらず、そのままでは活用が難しいという状況でした。
そこで、上手くRAGを使用することで効率的な情報検索ができないかと考え、まずは対象ドキュメントの種類やファイル形式を絞ってどこまでできるか試してみようということで、PoCがスタートしました。

実施したPoCの内容及びその結果について

実施したPoCの内容としては、過去の施策資料の一部をデータソースとしたRAGのPoC環境を用意して、約3か月間のユーザーテストを実施しました。

入出力先イメージ

評価方法について今回のユースケースでは、社内利用かつ評価用のデータセットが存在しないことから、基本的にオンラインで回答精度を評価しました。
1つは評価ボタンによるユーザー評価です。出てきた回答についてサムズアップ&ダウン方式で評価してもらいました。

そして2つ目は回答履歴をログとしてとっておき、それに基づいてユーザーへのヒアリングを行いました。
そのほかにも利用率、コストや回答速度などの指標もモニタリングを実施しました。

そして結果としては…
3か月ほどユーザーテストを実施しましたが、全体的に利用率が下降傾向にありました。ヒアリングをした結果としては、「回答結果がいまいちで、使うのをやめてしまった」という声があり、現在は今後の方向性を検討しています。

評価方法と結果

Azure AI studioのおすすめ機能

Azure AI Studioのおすすめ機能についてお伝えする前に、まずはAzure AI Studio自体についてご説明をします。
※Microsoft Ignite 2024にて、「Azure AI Studio」から「Azure AI Foundry」に改称されています。

Azure AI Studioを一言でいうと、複数のAzure AI関連サービスを1つの統合開発環境にまとめたWebポータルです。開発者はこのプラットフォームを使用してAIモデルの構築からデプロイまでを簡単に行うことができます。

Prompt Flowは、LLMアプリケーションを開発するためのオープンソースのツールです。
開発サイクルを効率化するためのサポート機能がたくさんあります。
ここからおすすめ機能をご紹介したいと思います。なお、機能の名前は独自の呼称なので、ご注意ください。

Azure AI StudioおよびPrompt Flowとは

 

Prompt Flowの各種テンプレート

まず1つ目にPrompt Flowの各種テンプレートです。
これはAzure AI Studioで提供されているPrompt Flowのテンプレートを指していて、RAGの基本処理に加えてLLM as a judgeをはじめとする評価機能をGUI操作で実装することが可能となっています。
実装後にAzure AI Studio上で裏側のコードや中間の入出力が簡単に確認できることが特徴です。
実務で役立つポイントとしては、実装や動作確認後に裏側のコードを確認することでRAGの基本的な処理の流れに加えて、LLM as a judgeをはじめとする評価のノウハウも取得できることです。
今後、PoCが終わって本番実装で別のツールを使うとなっても、全体像を把握できていることはとても良いことだと思います。

Trace機能

2つ目はTrace機能です。
これは各ノードの入力と出力など、実行フローの詳細情報をビューで参照できる機能です。
特徴としては、比較的簡単な事前設定で情報を取得し、ビューで参照ができます。
実務で役立つポイントとしては、今回のようなオフラインでの回答精度の評価設計が難しいユースケースにおいては、人間の確認によるチューニングが必要だったため、別途提供されているLLM as a judgeといったリッチな評価機能よりも役に立ちました。

今回のユースケースでは、評価機能を用いたチューニングは難易度が高いと感じましたが、一方でAzure AI Studioで提供される評価機能には、評価用のデータセットが必要な場合とそうでない場合があるので、後者は比較的利用しやすいと感じています。

Webアプリデプロイ機能

3つ目のおすすめ機能はWebアプリデプロイ機能です。
これはChat UIのWebアプリをデプロイできる機能です。
特徴としては、ワンクリックでデプロイが可能で、裏側ではAzureのサービスがデプロイされているので、App Serviceの環境変数から簡単なカスタマイズも可能です。

Visual Studio Codeでの開発機能

4つ目はVisual Studio Codeでの開発機能です。
特徴としては、簡単にVSCodeの開発環境を構築できます。実務でも使い慣れたエディタを利用できたため、コードリーディングがはかどりました。

RAGのPoCを進めてみて感じたこと

RAGのPoCを進めてみて感じた課題

再掲になりますが、PoCの結果としては全体的に利用率が下降傾向で、回答精度がいまいちという声がありました。この「回答精度がいまいち」という声を掘り下げると、

①ユースケースによる課題
②データによる課題
③システム側の課題
④ユーザー側への啓蒙や教育の課題

という4つの課題が出てきました。その中で、今回は①と②を踏まえてどのように進めれば良いのかを考えました。ユースケースによる課題については、後述する課題から回答精度の向上や利用促進が図れていないと感じています。

ユースケースによる課題

下画像のようなユースケースによる課題から回答精度向上や利用促進が図れていないと感じています。

今後の方針について

これらを踏まえてですが、やはりデータ整備からは逃れられないことを痛感しました。具体的にはメタデータの整備や、データ管理の運用整備が重要だと感じました。
それと並行して、RAGにおいてLLMが担っているところを人間側に寄せて、段階的に回答精度の向上を図りたいと考えています。そのためにまずは検索システムを実装して、問題の切り分けやチューニングに必要な情報収集を実施していこうと思います。

今回のような評価設計が難しいユースケースでは、どこがボトルネックになっているのかが見えてこないので、RAGをユーザー側に寄せてリサーチすることも大切だと考えています。

まとめ

下図がまとめです。

以上で、発表は終わりです。
雨谷さん、ありがとうございました!

続いては、マイクロソフト・コーポレーション 寺田さんの発表です。

AIとAzureで革新を!開発者のための新しいツールと生産性向上のご紹介

寺田:今回は「AIとAzureで革新を!開発者のための新しいツールと生産性向上のご紹介」というタイトルで発表します。すでに生成AIを試されている方も多くいらっしゃると思いますが、本日は改めて、開発者の日常に与える影響からお話をしたいと思います。

開発における生成AI

開発における生成AIとしてはAzure OpenAIやGitHub Copilotなどがあり、みなさんにもお使いいただていると思います。

開発に使えるプロンプト例

開発に使えるプロンプト例としては、例えば下図のようなものが挙げられます。

開発に使えるプロンプト例

IT系に携わっていると、新しい情報は海外から来ることが多いですよね。例えばそういった最新情報をつかむ際に日本語に要約するプロンプトを使用すれば、容易に最新情報をキャッチすることができます。
今はGitHub Copilotでも、出来ることが増えています。
私がみなさんに使っていただきたいと思っているのは、これまでは何かを調べる際には検索エンジンを使っていたと思います。しかしエラーなどが発生した場合、「エラーの原因と解決策を教えて」と聞いてみてください。回答を間違うこともあると思いますが、何度もやり取りをすることでプロンプトの精度が高まり、結果的に開発生産性を高めることができると思います。

それ以外にも、みなさんの業務効率を上げる方法があると思います。
例えば情報収集や技術調査、資料作成、コーディングなどの時間を短縮することが可能です。うまく使っていただくことによって時間が生まれてくるので、その時間で新企画を立ち上げたり新しい技術を取得することが可能になると思います。また、就業時間も短くなるので、みなさんの生活もさらに豊かになるのではないでしょうか。

GitHub Copilotについて

GitHub Copilotに関しても、改善や新機能の追加が行われています。

GitHub Copilotには3つのサブスクリプションがあり、それぞれ出来ることが変わってきます。付加価値がどんどん変わってきているので、今後も時間が経つことによって変わってくると思います。ぜひ、GitHub Copilotの違いを認識していただき、必要なプランを活用していただきたいと思います。

Copilotサブスクリプションの比較
Azure AI モデル

大規模言語モデルだけではなく、Phi modelsなど小規模言語モデルにも対応しているので、そちらにも興味を持っていただきたいと思います。
いろいろなAIモデルを紹介している背景として、何か1つを使えばいいというわけではなく、それぞれのモデルによって特性やできること、価格帯などが変わってくるので、それらを確認してから利用いただきたいと思います。

Azure AIモデルの一覧
GPT-4o / GPT-4o mini 

最近はGPT-4oやGPT-4o miniといったすぐれたモデルが出てきています。
マルチモーダル対応でレスポンスも高速で、コストも安くなってきているので、今GPT-4oを使っている方は非常に多いと思います。

o1-preview  o1-mini

また、最近はo1-previewやo1-miniといったモデルがあります。これらはGPT4とは違い、論理的な問題解決に力を発揮するものとなっています。GPT4よりも考えるものなので、応答に時間がかかるといったデメリットはありますが、考えたり、複雑な問題を解決するのに優れているモデルなので、そういったところに上手く使っていただけると嬉しいです。

実際にo1-previeは、AzureのOpen AIではリクエストベースになっていて、社内にいる私も申請がまだ通っていない状況です。そのため私自身もまだ触れていませんが、使えるようになった際にはぜひみなさんにもご利用いただきたいです。

o1-preview/o1-miniの説明

このように開発者のみなさんは、AIを使って開発生産性を高めるとは別に、適切なモデルを選び、適材適所でモデルを使っていただくという2つを行っていただきたいと思います。 

責任あるAI

Microsoft AIのスタンス

私たちMicrosoftのAIに対するスタンスとしては、基本的に扱うデータはお客様のものです。そのため、お客様のデータをAIモデルのトレーニングには利用しません。また、Azureをご利用いただくことで、よりエンタープライズグレードのセキュリティをご利用いただけます。

セキュアな運用管理について

下写真は、9月の中旬に私がブログに書いた記事ですが、Azure Container AppsからAzure Open AIにセキュアに接続する方法について具体的に書いているので、ご覧いただけると嬉しいです。

ここで私が話しているセキュリティ対策は、パスワードを使った認証ではなく、Microsoft Entra IDで提供している認証方式を利用して接続することによって、圧倒的にセキュリティが高いシステムを作ることが可能になる、というものです。もちろん、開発時にパスワードを使って接続するということを行う必要はありますが、本番環境ではパスワードレスで、自分自身が指定したアプリケーションやロールだけでアクセスをさせるようなコントロールもできるようになります。

Azure AIのContent safety

Azure AIのContent safetyに関しては、AIのサービスをはじめてすぐに提供しています。
例えばみなさんが子供向けのサービスを作っている場合に、プロンプトの入力に暴力的や性的な内容などが含まれるとよろしくないですよね。Azure AIのContent safetyでは、そういったコンテンツを省くことが可能になります。

Azure AIにおけるコンテンツフィルタリング

Azureには、良くないコンテンツを省く機能を提供しています。
フィルタリングのレベルの設定も自分で変えることが可能です。

Azure OpenAI Serviceにおける責任あるAI

実際にはどうするのかというと、プロンプトが入力された際にヘイトや性的なものがないかをチェックし、もしよろしくないコンテンツがある場合には、「これは受け付けられない」と返すようになっています。これは今まで提供していた機能ですが、私たちはこの部分に対してより強化しています。

もともとGitHub Copilotでは、例えばGitHub上にあるパブリックなソースコードを参照して、それをベースとしてみなさんに提案をすることを拒否するという設定がありましたが、今後はGitHub Copilotだけではなく、みなさんご自身が「自分が使っているコードがパブリックなものになっていないか」と確認できる機能が追加されています。

MicrosoftのAIについて

最後に、MicrosoftのAIについてご紹介します。
Microsoftは、地球上のすべての個人とすべての組織が、より多くのことを達成できるようにしたいと考えています。これからもAzureのAI系の様々なサービスについて提供していきたいと思います。

また、新しいAIモデルを使うことで開発生産性を高めたり、よりセキュアに安心安全にAIを使っていただくことによって、ビジネス価値を向上していただきたいと考えています。そして困っている方を助ける世界が身近にやってきていると思っています。みなさん自身も様々なアイデアを出していただき、ぜひビジネスを成功させていただけると嬉しいです。

発表は以上です。

寺田さん、ありがとうございました。
続いてはQ&Aコーナーです。

 

Q&Aコーナー

(Q)azure初学者はどのようにスキルをみにつければ良いでしょうか?

雨谷:「AZ-900」という試験勉強を通して全体概要を掴むことがおすすめです。「Microsoft Azure Virtual Training Day: Azureの基礎」などを活用すれば無料で効率的に学習することも可能です。
その後は、興味があるAzureのサービスを実際に触って学ぶことが良いかと思います。

寺田:初学者向けに「Microsoft Learn」というコンテンツを提供しています。こちらのトレーニングはステップバイステップで学んでいただけるようになっています。Azureをその場で利用できるような機能もあります!


(Q)パーソルさんがAzureを選択した理由をお聞きしたいです。

雨谷:このプロジェクトには、前段階のプロジェクトがあり、そこでAzure AI Searchの知見があったため、Azureを採用しました。


(Q)評価用データセットが存在しないということでユーザーにオンライン評価をしてもらうことでGround Truthを作るイメージかと思いますが、その評価の妥当性はどのように判断するのでしょうか?

雨谷:ユーザーからの評価に基づいているため、そのままでも回答が大きく外れていないと想定しています。ただし、1ユーザーのみの評価だと若干懸念が残るため、他のユーザーにも再評価いただいて妥当性を担保する形になるかと考えています。


(Q)pocの期間はどのくらいだったのでしょうか

雨谷:企画から開発(試行錯誤も含む)までが2~3か月程度、ユーザーテスト期間が3か月です。


(Q)今回はPoCということですが、運用に乗せた場合人手によるプロンプトのレビューはどれぐらいの頻度でどれぐらいの工数で行う必要がありそうでしょうか?

雨谷:RAG内部で使用しているプロンプトのレビューという観点で回答いたします。質問を取り違えていましたら申し訳ございません。
RAG内部のプロンプトは、システム側のアーキテクチャ変更、使用するLLMのモデル変更やナレッジベースのドキュメントを大幅に更新といったタイミング等で実施する必要があると考えており、ケースによりますが数時間程度でこれまでの回答との変化がないかを確認してチューニングするイメージを持っています。


(Q)Excelのデータとか、中にはテキスト以外の画像や表データがあるかと思いますが、どのように処理されましたでしょうか?

雨谷:OCRのサービスやAzure AI Searchのカスタムスキルでの対応を試行錯誤しましたが、PoC段階ということで最終的には画像や表データは対象外としました。


(Q)PoCの開発コスト、運用コストについて可能な範囲で教えていただけますでしょうか

雨谷:Azureの費用のみ回答させていただくと、利用率が高くなく、データ量も多くないため、開発、運用フェーズともに毎月数万円程度でした。


(Q)初LTとは思えないほど、落ち着いた発表で聞きやすかったです!発表には含まれていないPoCの課題や壁はありましたか?

雨谷:ありがとうございます。励みになります。
表や画像といった非構造化データの取り扱いは課題になっていまして、事前検証したうえで今回のPoCでは対象外としていました。


(Q)ドキュメントのインデクシングが肝にも思います。 ここは何か手を加えたのでしょうか?

雨谷:今回、ナレッジベースにAzure AI Searchを採用したため、インデクシング自体はAI Search側で実施しています。インデクシングに関連する部分では、メタデータの追加やチャンクサイズ等のチューニングを実施しています。


(Q)他社の類似ツールとの比較はされましたか?もしされていれば、どんなツールと比較したか、その中での決め手などお伺いしたいです!

雨谷:Azureの利用が前提となっていたこともあり、他社の類似ツールとの比較は実施していないです。


(Q)o1 previewで音声インプットができるAPIはいつ頃利用開始になりますでしょうか?

寺田:いつ出てくるかは分からないです。リリースをお待ちください!


(Q)マイクロソフト様の展開が早すぎて、社内の技術者の知見が追い付かないです。アドバイスをお願いします。

寺田:そうですよね。社内のエンジニアもビックリするくらいのスピードで進んでいます。技術は着実に良い方向に進化していっていますので、楽しんでいただきたいです!今後も進化は続いていくので、柔軟性のあるアプリケーション開発を行うことで、より良いシステムづくりに繋がると思います。


(Q)GPT4oとGPT4omini、GPT4miniとGPT3.5の差がいまだ掴みかねています。アドバイスいただきたいです。

寺田:比較といっても、色んな尺度があります。金額やどんな学習をしているのか、などです。AzureのAI Studioにアクセスしてもらうと、色んな指標ごとのグラフが用意されています。そちらをご覧いただくと、より細かいレベルで違いを確認いただけます。
GPT3.5 は古いモデルになりつつありますので、まずはGPT-4oやGPT-4ominiの比較をしていただくのがよいと思います。


(Q)寺田さんがAzureBoostcampで発表された情報で一番注目したトピックスがしりたいです

寺田:発表の中で特に注目していただきたいのは、Microsoftのマーケティング担当の小田さんのセッションです。現在のAzure AIの利用において注意すべき点や知っておくべき重要な情報が詰まっていました。そちらのセッションをぜひチェックしてみてほしいです。

 

(Q)SLMとして紹介されたPhi-3モデルはどういった分野、どういったユースケースでLLMよりも有効に活用できるとお考えでしょうか (エッジ搭載といった環境面以外で知りたいです)

寺田:SLMは、大規模言語モデルに比べてファインチューニングがしやすいです。使うデータ量にしても、ハードウェアにしてもLLMに比べるとコストを抑えることができます。特に効果的なユースケースとしては、特定のドメインに特化した内容を覚えさせて、学習させて使いたいというシチュエーションです。パブリックには出ていない特定の専門情報やトレーニングに使われていないデータを使いたいときに有効です。ファインチューニングの頻度がそれほど高くない場合でも、そのドメインに特化した情報をもっている組織であれば使ってほしいと思います。


(Q)生成AIではないAIを使ったチャットボットとの大きな違いはなんでしょうか?

寺田:通常のチャット・ボットは定型の質問に対し定型の回答を示すことしかできませんでした。しかし、生成 AI を利用すると、自然言語で記述された質問に対して関連のある回答を示すことができるようになります。自然言語をよりうまく使えるようになります。


(Q)ソースコードの分析の場合、最大何行くらいまで分析可能ですか?また、ファイルが複数に分かれている場合も分析可能でしょうか?

寺田:使う AI モデルによります。各 AI モデルでは最大で扱うことのできるトークン数が決められており、各 AI モデルのトークンの MAX まで扱うことができます。入力と出力のトークン数のMAXに違いがあるので、コード分析においては部分的に解析していくのがポイントになります。


(Q)企業としてこれから生成AI開発に取り組むところに向けたアドバイス、そしてこれからAzure AIに取り組むエンジニア向けにアドバイスをぜひお願いいたします。

寺田:企業も個人も、まずは大きすぎる期待を持ちすぎず、生成 AI でどのような事ができるのか、何が難しいのをご理解いただく所から試して頂くのが良いと思います。1回で100%の回答を求めず、繰り返しプロンプトを試したり、パラメータを変更する事で結果は変わってきますので、どこをどのように変えるとどのような結果を得やすいのかを理解する所から始めると良いかもしれません。


(Q)業務でASP.NET Coreなどを使用しており、バージョンアップにより結構書き方が変わったりするのですが、最新の書き方でコードレビューしてくれるものなのでしょうか?

寺田:AI モデルはそれぞれ、学習した日付が異なりますので、AI が学習した日付を理解しておくのは重要ですが、2023 年頃の情報は覚えている事が多いためその時期までにリリースされた言語仕様であれば、理解しています。


(Q)普通のPython(LCELやLangGraphなど)を使ってRAGアプリを作ることよりAzureを使ったらどんなところがいいですか?

寺田:言語レベルとインフラレベルで、比べるレイヤーが違っているのですが、Azure を利用すると Vector DB との連携が容易になるため、自分で設定や環境構築に時間をかけている部分を短縮する事ができます。Python 用のライブラリも提供していますので、それらを利用するとより容易にセキュアなアプリを構築する事ができるようになるかと想定します。


(Q)サービス展開が本当に早いので、社内展開に苦戦しています。(恥ずかしながら社内にしっかりしたエンジニアもいないので)

寺田:焦らずに、まずは自分の周りの身近な方々から巻き込んで、便利な点を知る人を少しづつ増やして頂くのが良いかと思います。良い物、便利な物とわかれば、自然に広がっていく可能性があります。

 

(Q)Azure OpenAI Serviceの東日本リージョンでGPT-4oを従量課金で使えるようになりますか?

寺田:申し訳ございません、将来的に可能性はあるかと想定しますが、現時点ではお答えできる立場ではございません。


(Q)例えば、OpenAIで提供しているGPT4-oとAzureで提供するGPT4-oの違いって何かありますか?ではなければAzureのGPTを使うとOpenAIのGPT4のAPIを利用してReponseを返すことですか?

寺田:細かな部分で違いがあります、Azure 上で動作させるために最適化されています。また、Azure の OpenAI の APi を利用すると、OpenAI, Azure OpenAi 共に再利用できますが、OpenAI の API の場合は Azure の認証系の機能などを利用できなません。


(Q)GPT4oで画像の分類をさせようとした場合(実際にはbase64エンコードされたデータ)に対しても、入力プロンプトに対するコンテンツフィルターに引っかかるのでしょうか?

寺田:はい、画像は BASE64 にエンコードされた情報を扱います。もしくは画像が存在する Azure Storage(BLOB)の URL を指定します。


(Q)ハルシネーションの機能は、全てのリージョンで利用可能ですか?

寺田:まだプレビューの機能です。セーフティの機能はまだプレビューです。
全てのリージョン、そして本番で使えるものでは今時点ではないので、ご理解お願いします。


(Q)今後のAzure AIへの期待の想いをお聞きしたいです。

雨谷:自分のようなアナリストなど、エンジニア以外によるAIの実装が進むとより活用が進むので、エンジニア以外も使うことができるサービスがどんどん出てくることを期待しています。

寺田:期待しかないでしょう!プレビュー版でも色んな機能が入ってきています。Microsoftが最初からエンタープライズの会社。そのため、今後も期待していただければと思います!


(Q)AzureでAIを取り組む一番のメリットをユーザー視点、そしてマイクロソフト様視点でお聞きしたいです。

雨谷:他サービスを十分に利用していない前提ではありますが、他サービスよりAIサービスが豊富に展開されている印象を受けており、その点をメリットと感じています。

寺田:Azureはミッションクリティカルな環境で安心して利用できる点が大きなメリットです。また、パスワードレス認証に対応しており、MicrosoftのイントラIDを活用することで、セキュアにAIサービスを利用できます。外部から悪さはされない環境です。Azureのエコシステムと組み合わせることで、ユーザーは高いレイテンシーを実現でき、よりスムーズで効率的なAI活用が可能になる点が強みです。


(Q)パーソル様の今後の生成AIの展開、野望もお聞きしたいのと、それに対する寺田さんのアドバイスもお聞きしたいです

雨谷:経営層も生成AIに注目しており、全社的に活用推進に取り組んでいます。引き続き業界をリードするテクノロジードリブンの企業を目指していきたいと思います。

寺田:今後も進めていただきたいと思います。日本の事例も圧倒的に増えています。ぜひMicrosoftの事例としても日本からグローバルにIgniteやBuildでも発信してほしいです。

 

 

いかがでしたでしょうか、レポートの内容は以上です。

次回のイベントレポートもお楽しみに♪

Community Members

さまざまなテーマで事例や知見を学ぶ
IT・テクノロジー人材のための勉強会コミュニティ