プライバシー、AI、そしてクラウドコンピューティングの未来(Rita Kozlov出演)

TechArenaポッドキャスト(ホスト:Allyson Klein、Jeniece Wnorowskiー)

AIがCloudflareの開発者コミュニティにどのような影響を与え、AI、データプライバシー、迅速な市場投入のためのツールをどのように提供しているのかをご紹介します。Cloudflareのプロダクト担当バイスプレジデントであるRita Kozlovが、JenieceとAllysonと共に、Cloudflareがどのように開発者に自社プラットフォーム上で直接構築できる環境を提供し、アーキテクチャ管理の負担や地域的制約を回避しながら、より容易にスケールできるよう支援しているかについて語ります。

ポッドキャストを聴く:


音声の書き起こし

音声の書き起こし

この書き起こしは、明確性と簡潔性を得るために編集されています。

ナレーター:The TechArenaへようこそ。この番組では、テクノロジー業界を牽引する革新者たちと、ホストのAllyson Kleinによる本音の対話をお届けします。それでは、アリーナへと踏み出しましょう。

Allyson Klein: The TechArena Data Insights Seriesへようこそ。私はAllyson Kleinです。そして、Solidigmから戻ってきてくれた共同ホスト、Jeniece Wnorowskiを再びお迎えできて嬉しく思います。Jeniece、本番組へようこそ。ご機嫌いかがですか?

Jeniece Wnorowski: こんにちは、Allyson。ありがとうございます。とても元気ですし、また戻って来られて本当に嬉しいです。

Allyson: さて、Jeniece、今日は素晴らしいインタビューをご用意していると聞いています。ゲストをご紹介してくれますか?

Jeniece: はい、今日は本当にワクワクしています。本日の特別ゲストはCloudflareのRita Kozlovで、同社のプロダクト担当バイスプレジデントを務めています。今日はCloudflareについて、たくさん学べることになりそうです。

Allyson: ようこそ、Rita。

Rita Kozlov: ありがとうございます。お招きいただき光栄です。ご招待、ありがとうございます

Allyson: 今週ずっと、このインタビューを楽しみにしていました。Cloudflareの方にご登場いただくのは今回が初めてではありませんが、あなたは初出演ですね。では、まずご自身の役割や、それがCloudflareの大きなミッションとどう関わっているのかをご紹介いただけますか?

Rita: もちろんです。私はCloudflareに入社して8年になりますが、その間に役割はいくつか変わってきました。ただ、私が考える顧客にとってのCloudflareの提供価値は、大きく3つのサービス群に分けられます。まず、多くの方がCloudflareと聞いて思い浮かべるのが、CDN [Cloud Delivery Network]、WAF [Web Application Firewall]、DDoS [protection. Distributed Denial of Service protection]対策といったサービスです。私たちはこれをアプリケーションサービスと呼んでいます。つまり、アプリケーションをどのように保護し、セキュリティを確保し、さらに高速化するか? 次に、従業員のデバイスを保護し、ネットワークへの接続方法をしっかり守るためのサービス群として、ゼロトラストがあります。つまり、より社内向けの話ですが、その側面をどうやってセキュリティで守るのでしょうか? そして私たちは次のように考え始めました。「これだけのネットワークを構築し、すでに多くのサービスを提供している。では、このネットワークを開発者に開放し、彼らが直接この上にアプリケーションを構築できるようにするにはどうすればよいか?」 私は開発者向け製品の領域をリードしています。その目的は、開発者がこのインフラの上にアプリケーションを構築できるようにすることです。このインフラは、スケーリングやメンテナンス、インフラ管理を気にせずに済むように設計されています。開発者はコードを書くこと[They can focus on]に集中し、ゼロからMVP [Minimum Viable Product]まで、そしてその先へと、非常に簡単に進められるようにするのです。

Jeniece: すごいですね その点で言えば、Rita、あなたはCloudflareのプロダクトを統括しているわけですが、今お話しされているソリューションの観点から、それはどういう意味を持つのかを教えていただけますか。

Rita: はい、もちろんです。私はCloudflareの開発者プラットフォームのプロダクト組織を率いています。つまり、私が担当しているのは、私たちのソリューションのあり方を定義するPMチームの管理です。これは、開発者が私たちのプラットフォームとどのようにやり取りするのか、といったことまで含みます。どのようにコードを書くのか? どのようにテストするのか? 開発者が私たちの開発者プラットフォームにどのようにオンボードするのか? そして、どのようにして彼らがHello Worldを書いて成功できるようにするのか? さらに、彼らが書いたコードを段階的に世界へリリースできるツールをどのように提供するか? そして、「フルスタックのアプリケーションを構築できるようにするために、開発者にどんなツールを提供する必要があるのか」という観点でも、私たちのプロダクト戦略を定義しています。

Allyson: その観点で考えると、Cloudflareといえば分散型のコンピューティングネットワークでよく知られていますよね。これは従来のクラウドとは何が違うのでしょうか? そのことは、あなた方の技術面での優先順位にどのように関係するのでしょう?

Rita: そうですね。他のクラウドサービスを使ったことがある方なら、最初に必ず「リージョンを選択してください」と言われるのを知っていると思います。例えば、AWSなら、ドロップダウンで「US East 1にしようかな、それともヨーロッパならEuropeのリージョンにしようかな」と選びますよね。つまるところ、開発者にとってこれは最初に下さなければならない非常に大きな決断だと私は思います。開発者にとって最初の、非常に大きな決断なんです。なぜなら、「どの顧客を最も重視するか」を選んでいることになるからです。もしUSを選べば、世界中の他のユーザーはアプリケーションにアクセスするときに、より大きなレイテンシーを抱えることになります。つまり、これは、このネットワークの上に構築することが、リージョナルサービスを中心に構築されたクラウドプロバイダーの上に構築することとどう違うのか、という意味合いの一部だと考えています。それに、ユーザー層を拡大しようとすると、最終的にはかなり複雑な構成にしなければならなくなります。複数のリージョンにまたがってすべてを複製したり、ロードバランシングを行ったりといった手間が必要になります。こうした作業は、決して単純ではありません。これは、エンドユーザーの体験という側面にも関わっていて、その点はとても素晴らしいと思います。レイテンシーが改善されています。しかし、同時に大切なのが開発者体験です。すべてがネットワークレベルで動作することで、開発者はインフラを単に覆い隠すようなものではなく、より抽象度の高いレイヤーで扱えるようになります。意味が伝われば幸いです。

Jeniece: はい、まったくその通りです。よく分かります。そして今日の中心的なテーマであるAIのことを考えると、Rita、ぜひ伺いたいのですが、お客様からどのようなAIワークロードの要件を聞いていますか?それらはどのようなもので、それに対応するために、あなたのチームが継続的にイノベーションを行う必要がある理由とは何でしょう?

Rita: AIワークロードの要件については、いくつかの声が届いています。お客様ごとに状況は少しずつ異なりますが、大きく分けると次のようになります。まず、私がOperational AIと呼んでいるものです。つまり、「社内の従業員、自社の開発者、チーム全体をもっと効率化するために、どのようにAIを活用するか」を考える段階です。そして、そこから多くの実験が始まるのです。AIへの最初の導入として最も一般的なユースケースのひとつは、コード生成だと思います。そこで開発者はそのメリットをすぐに実感できるのです。突然生産性が大幅に向上するためです。この領域は、私たちも投資を進めており、開発者がこうした生成AIツールを使っている場合に、Cloudflareの開発者プラットフォームをより簡単に利用できるようにするにはどうすればよいかを探っています。次の段階としては、Operational AIを卒業した後、あるいはOperational AIの中でも、「どうやってプロダクションに持っていくか」、「どのようにお客様向けに提供するか」という課題が出てきます。先ほど「開発者がフルスタックアプリケーションを構築できるようにする」という話をしましたが、開発者の期待として、AIがスタックの一部として組み込まれることが当たり前になりつつあります。なぜなら、以前はアプリケーションを構成するコンポーネントを見ると、フロントエンドがあり、バックエンドがあり、それはAPIとデータベースで構成されていました。もちろんこれは簡略化した見方ですが、コンピュート、ストレージ、データといったものだけでした。しかし今では、あらゆるアプリケーションが何らかのAIコンポーネントを持つようになっています。例えば、次の行動を予測したり、これからやろうとしていることを支援したりするために、場合によってはモデルを実行する必要があります。例えば、チームの代わりに質問に答える自動化されたチャットボットを作りたい場合や、セマンティック検索(意味的検索)に置き換えたい場合があります。つまり、たくさんのチェックボックスを選ぶ代わりに、「この種類のドレスで、このような場面に合うものを探しています」といった質問ができるようにするのです。AIがそのようにプロダクトへどんどん統合されていくにつれて、開発者の期待も大きく変わってきていると思います。その流れを受けて、私たちもそれを支援するためのAI 製品群を立ち上げました。

Allyson: もちろん、Cloudflareは真空の中で仕事をしているわけではありませんよね。市場にこうした独自の能力を提供するために連携しているエコシステム全体が存在します。お客様が本当に求めているソリューションを届けるために、特にAIが転換点を迎えている今、このエコシステムにどのようにアプローチしているのでしょうか? また、それはターゲットとするインフラやソフトウェアにどう影響しているのでしょう?

Rita: プロバイダーやエコシステムという観点では、まずオープンソースAIが急成長している時代にAIに取り組めているのは非常に幸運だと思っています。その中でも特に、Hugging Faceが取り組んでいる活動に私たちは大いに期待しており、彼らのモデルをCloudflareのモデルカタログに統合しています。もともと私たちは強いオープンソース信奉者なので、その方向をいち早く検討するのは自然な流れでした。もうひとつ言うと、エコシステムの中で最も速いスピードで進化しているのはAIモデルそのものです。モデルが信じられない速度で進化していく中で、Metaのようなモデルプロバイダーとしっかり連携し、新しいモデルが登場した瞬間に開発者が使える状態にしておくことが重要だと考えています。

Jeniece: AIを導入する際、データパイプライン全体の観点、つまり、データの事前学習/事後学習から、トレーニング、ファインチューニング、そして最終的な再推論まで見たときに、Cloudflareはどのように優先的なパートナーとして位置づけられていくのでしょうか? また、そのことがプロダクト戦略にどのような影響を与えているのでしょう?

Rita: CloudflareがAIにおいてどこで役割を果たすのが適切なのかを検討し始めたとき、最初に着目したのは「トレーニング」と「推論」の2つの領域でした。コンピューティングという観点では、Cloudflareが推論領域で強く競争するのはあまり合理的ではありません。それは、より伝統的なハイパースケーラーにとって適した領域です。なぜなら、そのようなワークロードを実行するには、膨大なGPUリソースが集約された非常に大規模なデータセンターが必要だからです。ただし、トレーニング側でも、Cloudflareを活用する開発者が増えてきた分野があります。それがデータの保存です。特に多くの関心が寄せられているのが、私たちのオブジェクトストレージソリューション、[Cloudflare] R2です。当時はGPUが深刻に不足していたため、開発者は複数のクラウドプロバイダーを跨いでワークロードを回さざるを得ませんでした。その際、エグレス料金が非常に大きな問題になっていたのです。そこでエグレス無料のソリューションを導入することで非常に大きな違いが生まれました。そして、推論領域においては、Cloudflareにとって非常に大きなチャンスがあると考えています。AIを実行するのに適した場所は、私たちは3つあると考えています。そのうち、より分かりやすい2つは次のとおりです。まず1つ目は、先ほどトレーニングについて話したハイパースケーラーです。ただし問題は、AIが日常のあらゆる場面に組み込まれていくにつれ、ワークロードがますます高い性能を要求するようになる点です。ウェブでも同じことが起きましたよね。1日に何度もAIとやり取りするなら、リアルタイムのフィードバックが欲しいし、すべてが瞬時に動いているように感じたいですから、そうなると物理的に遠く離れた場所でAIが実行されるのは理想的とは言えません。そこで、AIの一部を実行するデバイスが登場します。Appleの発表でも、多くのAI機能がデバイスに組み込まれると説明されていましたよね。しかし最終的には、デバイスはハードウェア性能の限界に縛られます。ですから私たちは、デバイス上で動かす必要はないものの、ユーザーのすぐ近くでAIを実行できる「理想的な場所」に自分たちが位置していると考えています。そして、モデルのトレーニング需要が落ち着き、推論が主要なワークロードになるにつれて、私たち[we are]はその多くを支えるうえで非常に有利なポジションにいると考えています。

Allyson: この話を伺っていて思うのは、Cloudflareは非常に多くの国で事業を展開しており、AIに関しては大量の顧客データを扱っているという点です。では、データセキュリティ、プライバシー、データ主権といった要素は、この状況にどのように関わってくるのでしょうか? そして、Cloudflareはこうした課題に対して顧客とどのように向き合い、対応しているのでしょうか?

Rita: それは本当に重要な問いだと思います。そして推論という観点では、私たちが大きな差別化要因としている点のひとつは、「顧客データをモデルのトレーニングに使用しない」ことです。これは最終的に私たちが行うことではありません。私たちはOpenAIではありません。基盤モデルをトレーニングしているわけでもありません。そのため、すべての推論処理は完全にステートレスです。例外があるとすれば、私たちのベクターデータベースのような製品を利用する場合のみで、その場合は保存するインデックスやデータを100%ユーザー自身が管理できます。それ以外の場合は、完全に一時的なものです。こうした仕組みから、私たちはプライバシーを最優先するプロバイダーであると考えています。そしてご質問にあったデータ主権に関しても、Cloudflareのネットワークは大きな強みになります。なぜなら、法律による地域制限や、推論処理を地域内に留めたいという要件がある場合に、AIが「どの地域で実行されるか」を細かく制御できるからです。

Jeniece: ええ、Rita。Cloudflareはプライバシーを第一に考えるだけでなく、環境負荷の低い計算基盤のリーダーとしても知られています。その点について、あなたの見解を聞きたいです。

Rita: ここにはいくつか要素があります。まずひとつは、ユーザーに近い場所で処理を実行できるというのが非常に大きな利点だと私たちは考えています。なぜなら、世界中をデータが行き来する必要がなくなり、その分エネルギー消費やカーボンフットプリントを大幅に削減できるからです。2つ目のポイントは、リソースのプロビジョニングをどう考えるかという点です。いま市場で見られる多くのAIソリューションは、AI用リソースを事前プロビジョニングが必要なVM([virtual machines])として扱っています。そのため開発者は、あらかじめ「どれくらいのインスタンスが必要か」を考えておく必要があります。しかしこれはかなり柔軟性の低いアプローチです。というのも、ピークトラフィックがどれくらいになるかを事前に予測する必要があり、結果としてリソース利用の効率が悪くなる からです。その結果どうなるかというと、トラフィックが少ないときには大量のリソースが有効に活用されず、逆にトラフィックが急増したときには不足が生じるのです。それでもプロビジョニングが不足しているかもしれず、結果としてさらにリソースを追加しなければならなくなります。対照的に、Workers AIと、私たちが考える開発者プラットフォーム全体の設計は、本当にサーバーレス的なアプローチになっています。そのため、ご利用状況に応じて自動的にスケールアップ/スケールダウンします。また、これらのスケーリングを複数のテナント全体で統合的に管理できるため、長期的に見ても非常に持続可能なスケーリング方式となっています。

Allyson: Rita、今日はこの番組に出演してくれて本当にありがとう。Cloudflareについて多くのことを学べましたし、いまこの瞬間にお客様へサービスを届けることがどれだけ大変で、そしてどのように取り組まれているのかを深く理解することができました。本当に激動の時代ですが、皆さんはその一歩先を行く素晴らしい仕事をしています。きっと、あなたともっと話してみたいという人も多いと思います。今日お話ししてくれたサービスについて、もっと知りたい場合はどこを見ればよいでしょうか? また、どのようにチームとつながればよいでしょう?

Rita: 私たちは皆さんに参加していただくのをうれしく思います。エンジニアやチームと話したい場合は、開発者向けのDiscord(discord.gg/cloudflaredev)を強くおすすめします。そして、当社のAIサービスについては、ai.cloudflare.comにすべて一覧が掲載されており、詳細な説明も記載されています。これらが、アクセスできる代表的な場所ですね。

Allyson: 今日は本当にありがとうございました。Jeniece、今回もTechArena Data Insightsの素晴らしいエピソードになりましたね。一緒に参加してくれて、そして業界リーダーたちとの素晴らしい対話を共有してくれてありがとう。

Jeniece: こちらこそありがとう、Allyson。そしてRitaもありがとうございました。大変有意義なひとときでした。

Rita: こちらこそ、お招きいただきありがとうございました。

ナレーター:TechArenaにご参加いただきありがとうございました。私たちのウェブサイト、thetecharena.netを購読し、ぜひ交流に参加してください。すべてのコンテンツはTechArenaの著作権により保護されています。

許可を得て使用しています。