Episodes

  • 株式会社ずんだもん技術室AI放送局 podcast 20250826
    Aug 25 2025
    関連リンク Agent Development Kit(ADK) でデータサイエンス AI エージェントを動かしてみる 皆さん、こんにちは!今回は、Googleが発表した新しいAIエージェント開発フレームワーク「Agent Development Kit(ADK)」について、新人エンジニアの皆さんにも分かりやすくご紹介します。 AIエージェントは、ただ質問に答えるチャットボットから進化し、自分で考えて計画を立て、複雑なタスクをこなせるようになりました。ADKは、このような高度なAIエージェントを、プロトタイプだけでなく実際のサービスとして運用できるレベルで開発・デプロイするためのオープンソースのフレームワークです。 ADKの大きな特徴はいくつかあります。まず「マルチエージェント設計」といって、専門分野の異なる複数のAIエージェントが協力し合って一つの大きなタスクを解決する仕組みが基本です。これにより、まるで部署が分かれた会社のように、各エージェントが自分の得意なことを担当し、システム全体として複雑な処理を効率よく行えます。次に「柔軟なオーケストレーション」では、AIが次に何をすべきかを自分で考えることも、開発者が決めた手順で動かすこともできます。また、既存のツールだけでなく、他のエージェント自体も「ツール」として再利用できるため、拡張性が非常に高いのも魅力です。さらに、Web UIやコマンドラインツール(CLI)が用意されており、エージェントの動きを視覚的に確認しながら効率的に開発を進められます。 記事では、ADKのサンプルの中から「データサイエンス」に特化したAIエージェントの概要が紹介されています。このデータサイエンスエージェントは、Google CloudのデータウェアハウスであるBigQueryと連携し、データの操作、グラフ作成などの可視化、さらにはBigQuery MLを使った機械学習モデルの構築までを自律的に行います。このエージェントも、データの分析担当、グラフ描画担当、機械学習担当といった専門家(サブエージェント)が協力し合う「マルチエージェント」として設計されています。例えば、「サブエージェント」は専門的なタスクを委任され、自分で判断して実行する能力を持ち、「エージェント・アズ・ア・ツール」は特定の機能を一つの道具のように呼び出して利用されます。 ADKのWeb UIを使えば、エージェントがユーザーの指示に対して、どのようにタスクを分解し、どの専門エージェントやツールを呼び出して処理を進めたか、その思考プロセスを「Trace」や「Events」機能で具体的に確認できます。これにより、エージェントがなぜそのように動いたのかを理解しやすく、開発やデバッグがスムーズに行えるのが大きなメリットです。 ADKは、これからのAIエージェント開発を強力に支援するツールです。複雑なAIシステムを効率的に構築し、その動作を深く理解するための手助けとなるでしょう。ぜひ、皆さんもADKに触れて、未来のAI開発を体験してみてください。 引用元: https://zenn.dev/cloud_ace/articles/adk-sample-data-science GeminiのURL context toolを解説。スクレイピングなしでWebコンテンツを取得 今回は、Googleの生成AI「Gemini」を開発で使う際に便利な「URL context tool」について、新人エンジニアの方にも分かりやすく解説します。 URL context toolとは? このツールは、Geminiに特定のWebサイトの内容を直接読み込ませて、その情報を基に回答を生成させるための機能です。通常、Webサイトの情報をAIに使うには、Webスクレイピングという技術でプログラムを書いてデータを集める必要がありました。しかし、URL context toolを使えば、この手間を省き、URLを指定するだけでGeminiが自動的にWebサイトの内容を「コンテキスト(文脈や背景情報)」として理解し、利用してくれます。 何が便利なの? Webスクレイピング不要: 面倒なプログラミングなしでWebサイトの情報をAIに渡せます。ハルシネーション(AIの誤情報生成)の軽減: 特定のWebサイトの正確な情報を基に回答するため、AIが事実と異なる情報をでっち上げる「ハルシネーション」のリスクを減らせます。具体的な活用例: 記事から重要なポイントをまとめてもらう複数のWebページを比較して違いを教...
    Show More Show Less
    Less than 1 minute
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250825
    Aug 24 2025
    関連リンク AI エージェント実践ガイドブック この「AI エージェント実践ガイドブック」は、まるで人間のように自分で考えて複雑なタスクをこなす「AI エージェント」の開発について、Google Cloudがまとめた技術ガイドです。特に、これからAIエージェントの開発を始めたい新人エンジニアの皆さんにとって、基礎から実践的な運用方法までを分かりやすく学べる内容となっています。 ガイドブックでは、AIエージェントを成功させるために重要な3つの技術要素が解説されています。 モデル: AIエージェントの「頭脳」にあたる部分です。賢い判断や適切な行動ができるように、エージェントの振る舞いを細かく制御するための設計方法が学べます。ツール: AIエージェントが外部のシステム(例えば、インターネット上のサービスやデータベースなど)と連携するための「手足」や「道具」です。これによって、エージェントは幅広い情報にアクセスしたり、実際のアクションを起こしたりできるようになります。オーケストレーション層: 複雑なタスクをこなすための「計画を立てる司令塔」の役割を果たします。複数の手順や判断をどのように組み合わせて実行するかを管理し、エージェントがスムーズに目標達成できるよう導きます。 さらに、Google Cloudが提供する「Extensions」や「Functions」といった、AIエージェント開発に役立つ具体的なツール群について、どのように選んで効果的に活用すれば良いか、その戦略も詳しく説明されています。 このガイドブックは、以下の4つのホワイトペーパーで構成されており、それぞれ特定のテーマに深く踏み込んでいます。 Prompt Engineering: AIに意図した通りの応答をさせるための「指示の出し方(プロンプト)」の基本から応用テクニックまで。Agents: AIエージェントの基本的な設計思想と、具体的な実装方法。Embeddings & Vector Stores: AIが情報を効率的に理解し、検索できるようにするためのデータ表現技術。Agents Companion: 実際に開発したAIエージェントを本番環境で安定して動かすための運用ノウハウ。 このガイドブックを通じて、皆さんも次世代のAIエージェント開発に必要な知識とスキルを身につけ、新しいテクノロジーを活用する一歩を踏み出すことができるでしょう。 引用元: https://cloud.google.com/resources/content/intl/ja-jp/aiagentgb?hl=ja xai-org/grok-2 · Hugging Face イーロン・マスク氏が率いるxAIが開発した最新の大規模言語モデル(LLM)「Grok-2」のモデルの重み(ウェイト)が、AIモデルの共有プラットフォームであるHugging Faceで公開されました。これは、LLMの開発や研究に携わる日本のエンジニア、特に新人の方々にとって非常に注目すべきニュースです。 このリポジトリで公開されている「重み」とは、モデルが膨大なデータから学習して獲得した「知識」や「判断基準」にあたる、AIモデルの「頭脳」とも言える部分です。Grok-2は2024年にxAI社内で学習・利用されていたもので、その高性能さが期待されます。 Grok-2の重みは、約500GBという非常に大きなファイルサイズを持ち、これを動かすためには高性能なGPUが複数必要となるなど、かなりの計算リソースが求められる大規模なモデルです。利用を検討する際は、ご自身の環境が対応できるかを確認することが重要です。 また、このモデルの利用にあたっては「Grok 2 Community License Agreement」という独自のライセンスが適用されます。ライセンスの内容はモデルの利用範囲(商用利用の可否など)を定める重要な情報ですので、ダウンロードして利用する前には必ずこのライセンス文書を確認してください。 最先端のLLMに直接触れ、その動作を体験できる貴重な機会となるでしょう。 引用元: https://huggingface.co/xai-org/grok-2 【2025年最新】開発者必携!Claude CodeとCursorを強化するMCPサーバー15選 皆さんは「Model Context Protocol(MCP)」という言葉を聞いたことがありますか?これは、AIアシスタント(Claude CodeやCursorなどのAI IDE)とGitHub、データベース、APIツールといった様々な外部サービスを連携させるための新しい仕組みです。例えるなら、AIアシスタントがあなたの開発ツールと直接会話できるようになる「架...
    Show More Show Less
    Less than 1 minute
  • 私立ずんだもん女学園放送部 podcast 20250822
    Aug 21 2025
    関連リンク AI Mode in Search gets new agentic features and expands globally Google検索のAI Modeが、ユーザーの作業をより深く支援する「エージェント機能」と、一人ひとりに合わせた「パーソナライゼーション機能」を強化し、提供地域を大幅に拡大することを発表しました。 今回のアップデートで最も注目すべきは、AI Modeがまるでアシスタントのようにタスクを遂行する「エージェント機能」です。例えば、友人とのディナー予約を探す際、「〇人、〇日、〇時、〇〇エリアで和食」といった複雑な条件を指定するだけで、AI Modeが複数の予約サイトを横断的に検索し、リアルタイムの空き状況を確認します。その上で、条件に合うレストランの候補と、直接予約ページへ繋がるリンクを提示してくれるため、ユーザーは最後の決定と予約の確定をするだけで済みます。将来的には、地域のサービス予約やイベントチケットの取得にもこの機能が拡張される予定です。この裏側では、ウェブをリアルタイムでブラウジングする「Project Mariner」や、GoogleのKnowledge Graph、Google Mapsといった技術が活用されています。このエージェント機能は、まず米国のGoogle AI Ultra契約者向けに、Labsの実験として提供が始まります。 また、米国でAI ModeのLabs実験に参加しているユーザー向けには、個人の好みや興味に合わせて検索結果を調整する「パーソナライゼーション機能」が導入されます。例えば、「1時間で手早くランチできる場所」と検索すると、過去の検索履歴やマップでの行動履歴からユーザーの好みを推測し、「イタリア料理が好きならこんなお店はどうか」「屋外席があるところが良いか」といった、より関連性の高い候補を提案してくれます。もちろん、共有される情報の管理はユーザー自身が行え、Googleアカウントの設定でいつでも調整可能です。 さらに、AI Modeで得られた情報を友人や家族と簡単に共有できる機能も追加されました。例えば旅行計画を立てる際など、AI Modeの応答結果をそのまま共有し、受け取った人もそこからさらに質問を続けたり、共同で検討を進めたりすることが可能になります。 Googleは、AI Modeが特に複雑な質問への対応力で非常に高い評価を得ているとし、この強力なAI検索体験をさらに広げます。現在、米国、インド、英国で提供されていますが、新たに180以上の国と地域に英語でのAI Modeの提供を開始しました。これにより、世界中でより多くの人々が、複雑なタスクや質問に対してAIの支援を受けられるようになります。今後は、さらに多くの言語と地域への拡大が予定されています。 新人エンジニアの皆さんにとって、この進化はAIが単なる情報検索を超え、私たちの日常的な「行動」をどう支援していくかを示す具体的な事例です。AIエージェントが様々なサービスと連携し、ユーザーの意図を汲み取ってタスクを自動化する動きは、今後のAI開発の大きな方向性を示すものと言えるでしょう。 引用元: https://blog.google/products/search/ai-mode-agentic-personalized/ Weaponizing image scaling against production AI systems このブログ記事は、AIシステムにおける新たなセキュリティ上の脆弱性、「画像スケーリング攻撃」について解説しています。これは、ユーザーがAIに画像を送信する際に、一見無害に見える画像に隠された悪意ある指示(プロンプトインジェクション)が、AIシステムが画像を縮小処理する段階で露見し、結果としてデータ窃取などの攻撃を可能にするものです。 具体的には、AIシステムは通常、大きな画像を処理する前に小さく縮小(スケーリング)します。この縮小の過程で、元の画像ではほとんど見えなかったり、全く認識できなかったりする悪意のあるプロンプトが、まるで「ゴースト」のように現れてAIモデルに実行されてしまうのです。この攻撃は、Google Gemini CLI、Vertex AI Studio、Googleアシスタントなど、多くの実稼働中のAIシステムで成功が確認されています。 例えば、Google Gemini CLIへの攻撃では、ユーザーが良性の画像をアップロードすると、システムが自動的に画像を縮小します。この縮小された画像に含まれる隠されたプロンプトが、Googleカレンダーに保存された...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250821
    Aug 20 2025
    関連リンク OpenAI、AIコーディングエージェントをガイドするための「AGENTS.md」サイトを公開 gihyo.jp OpenAIが、AIコーディングエージェントがより効率的に開発作業を行うための新しいガイドライン「AGENTS.md」を発表しました。これは、AIがプロジェクトのコードを理解し、より適切にサポートするための「説明書」のようなものです。 これまでのAIコーディングアシスタントは、コードの自動生成や修正を部分的にサポートしていましたが、プロジェクト全体の構造、独自の開発ルール、あるいは特定のテスト手順といった「文脈」を自動で理解するのは難しい側面がありました。そこで「AGENTS.md」は、こうしたAIエージェントが直面する課題を解決し、人間と同じようにプロジェクトの背景を深く理解して作業できるようにすることを目的としています。 「AGENTS.md」は、ソフトウェア開発でよく使われる「README.md」ファイルのように、プロジェクトのルートディレクトリに配置されます。このファイルには、AIエージェントがそのプロジェクトで作業する際に知っておくべき重要な情報が、標準的なMarkdown形式でまとめられます。具体的には、プロジェクトの概要や目的、コードのビルド方法、テストの実行手順、守るべきコーディング規約(例:インデントのスタイル、変数名の付け方)、依存ライブラリ、セキュリティに関する注意点などが含まれます。 これにより、AIエージェントは、ただ与えられたコードを補完するだけでなく、プロジェクト特有のルールや文脈を理解し、例えば「この機能は、既存のAコンポーネントと統合する際に、Bという規約に従うべきだ」といった、より高品質で整合性の取れたコードを提案したり、バグを見つけたりすることが期待されます。複数のサブプロジェクトがあるような大きなリポジトリ(モノレポ)の場合でも、それぞれのサブプロジェクトごとに「AGENTS.md」を置くことができ、AIは作業中のファイルに最も近いガイドラインを優先して参照します。もちろん、開発者が直接AIに指示を出す(プロンプトする)ことで、このガイドラインを一時的に上書きすることも可能です。 この取り組みは、OpenAIだけでなく、OpenAI Codex、Amp、GoogleのJules、Cursor、Factory、Roo Codeといった様々なAIコーディングツール開発チームと協力して進められています。AIがますます開発現場で活躍するようになる中で、「AGENTS.md」のような共通のガイドラインは、AIと人間のエンジニアがスムーズに協力し、開発効率とコード品質の両方を高めるための重要な一歩となるでしょう。新人エンジニアの皆さんも、今後AIと一緒に開発を進める際には、こうした「AIに仕事を任せるための説明書」の重要性を意識しておくと、AIをより効果的に活用できるはずです。 引用元: https://gihyo.jp/article/2025/08/agents-md-site Gemma3:270Mをファインチューニングして使ってみた この記事では、Googleが新しく発表した軽量なAIモデル「Gemma 3 270M」を、実際にカスタマイズ(ファインチューニング)してみた体験が紹介されています。 Gemma 3 270MってどんなAI? このモデルは、たった2億7千万パラメータという小さなサイズながら、とても効率的に動作するのが特徴です。一番のポイントは、開発者が自分の目的に合わせて簡単にカスタマイズできるように作られていること。すでに指示を理解したり、文章を整理したりする能力が備わっているので、基本的な訓練をせずともすぐに実用的な場面で活用できます。つまり、「軽くて速いのに、必要な基本機能は揃っていて、しかも自分好みにカスタマイズしやすいAIモデル」なんです。 実際にファインチューニングに挑戦! 筆者はこのGemma 3 270Mを「関西弁を話すAI」にカスタマイズすることに挑戦しました。 データセットの準備: まず、AIに学習させるための関西弁の会話データを用意しました。フルチューニング: 用意したデータを使って、モデル全体を再学習させる「フルチューニング」を行いました。プログラムはAIアシスタントのClaudeの力を借りて作成。わずか数分で、質問に対して関西弁で返答するモデルが完成したそうです。 もっと効率的な...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250820
    Aug 19 2025
    関連リンク URL context tool for Gemini API now generally available Googleは、AI開発者向けの「Gemini API」で利用できる「URLコンテキストツール」を一般公開しました。このツールを使うと、AIモデルにウェブページの情報やドキュメントの内容を、より簡単かつ深く理解させられるようになります。 これまでのGeminiモデルは、インターネットに直接アクセスする機能が限定的でした。既存の「Grounding with Google Search」は、検索結果の短い断片しか扱えませんでしたが、今回のURLコンテキストツールは、指定したウェブページ全体のコンテンツをAIモデルが分析できるようになります。これにより、AIがより多くの文脈を理解し、複雑な情報を扱えるようになるのが大きな特徴です。 今回のリリースで、このツールは読み込めるコンテンツの種類が大幅に増えました。 PDFファイル: PDFのリンクを指定するだけで、AIがテキストだけでなく、表や文書の構造まで理解できるようになります。報告書やマニュアルの分析に便利です。画像ファイル: PNGやJPEGなどの画像も処理できるようになり、グラフや図表といった視覚情報もAIが理解し、分析できるようになります。Geminiの画像認識能力が、ウェブ経由で活用できるようになったイメージです。その他: 標準的なHTMLページはもちろん、JSONやCSVといった構造化データ、各種テキストファイルも引き続きサポートします。 このツールは、大規模な開発利用にも対応できるよう準備が整いました。利用するGeminiモデルに応じて処理能力(レート制限)が設定され、コストも明確になったため、安心して開発を進められます。 URLコンテキストツールは、開発者が新しいAIアプリケーションを作る可能性を広げます。例えば、以下のような用途が考えられます。 顧客対応の高度化: 顧客のウェブサイト情報をAIチャットエージェントに読み込ませることで、より的確なサポートを提供できます。ドキュメントの比較・要約: 複数のレポートや記事、PDFをAIに分析させ、違いを見つけたり、内容をまとめたりできます。コンテンツ作成の支援: 複数の情報源となるURLから情報を集約し、要約やブログ記事などを自動で生成できます。コード・技術文書の理解: GitHubリポジトリや技術文書のURLを指定するだけで、コードの説明を生成させたり、技術的な質問に答えさせたりできます。 このツールはすでに、オープンソースのGemini CLIや顧客サービスプラットフォームのGladly.aiなどで活用されており、よりスマートなAI体験の実現に貢献しています。今回の一般公開により、多くの開発者がこの強力な機能を使いこなし、様々な課題を解決するAIアプリケーションを生み出すことが期待されます。 引用元: https://developers.googleblog.com/en/url-context-tool-for-gemini-api-now-generally-available/ Generate Images with Claude and Hugging Face この記事では、AnthropicのAIチャットボット「Claude」と、AIモデルやアプリケーションが公開されているプラットフォーム「Hugging Face Spaces」を連携させることで、高品質な画像を簡単に生成できるようになる方法が紹介されています。この連携により、最新のAI画像生成モデルを非常に手軽に利用できるようになるのが大きな特徴です。 この連携には主に3つのメリットがあります。 プロンプト作成支援: AIが画像生成のための詳細な指示文(プロンプト)の作成を手伝ってくれるため、より質の高い画像を効率的に生成しやすくなります。画像生成の反復改善: 生成された画像をAI自身が確認し、デザインや表現方法を改善するためのアドバイスをしてくれるため、理想の結果にスムーズに近づけられます。最新モデルの活用: 状況や目的に合わせて、最新のAIモデルや最適なモデルを簡単に切り替えて使えるため、常に最先端の技術を試すことができます。 この機能を利用するには、まず無料のHugging Faceアカウントを作成し、Claudeのチャット入力画面にある「Search and tools」メニューからHugging Faceを接続するだけです。この連携の裏側では、Hugging Faceの「MCP Server」という技術が使われており、効率的にGPUを利用できる「ZeroGPU」という仕組みが、大規模なAIモデルの動作を支えています。Hugging Face...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250819
    Aug 18 2025
    関連リンク GPT-5 の教科書 2025年8月に発表された「GPT-5」は、AI技術の最先端を行く統合システムです。新人エンジニアの皆さんも、これからのAI開発でGPT-5のようなモデルに触れる機会があるかもしれません。この教科書では、GPT-5の基本的な構成と、特に力を入れている安全性への取り組みについて解説されています。 GPT-5は、大きく分けて「スマートで高速なモデル(gpt-5-main)」と「より深い推論モデル(gpt-5-thinking)」、そしてこれらのモデルを賢く使い分ける「リアルタイムルーター」で構成されています。ルーターが会話の内容や複雑さに応じて最適なモデルを自動的に選び、処理の速さと質の高さを両立させています。 GPT-5の大きな進化点として、以下の3つが挙げられます。 幻覚(ハルシネーション)の削減: 事実に基づかない誤った情報を生成する現象が大幅に減りました。指示への忠実性向上: 私たちの指示をより正確に理解し、意図通りの回答を生成するようになりました。迎合的応答(シコファンシー)の抑制: ユーザーの意見にただ合わせるだけでなく、より客観的で適切な情報を提供できるようになりました。 これらの品質向上は、OpenAIが導入した新しい安全訓練手法「safe-completions」によるものです。これは、単に不適切な内容を拒否するだけでなく、AIの回答そのものの安全性を高めることを目指しています。 安全性への取り組みは非常に徹底されています。 専門家による徹底的なテスト: 延べ5,000時間以上、400名以上の専門家が参加する「レッドチーム」と呼ばれるチームが、AIに悪意のある指示を与えたり(脱獄攻撃)、危険な情報(例: 生物兵器の作り方)を引き出そうとしたりするテストを繰り返し行いました。結果として、GPT-5はこれらの攻撃に対して非常に堅牢であることが確認されています。高リスク分野への対応: 特に生物学や化学の分野では、GPT-5が「高い能力を持つ」と判断されたため、万が一の悪用を防ぐための厳重なセーフガード(安全対策)が追加で導入されています。ただし、現時点で明確な危害を引き起こす証拠は見つかっていません。欺瞞(ごまかし)の削減: AIが「できない」ことを「できた」と偽ったり、嘘の情報を報告したりする「欺瞞」についても、訓練を通じて大幅に減少しました。AIが正直に振る舞うよう設計されています。 また、GPT-5はヘルスケア分野での質問応答能力が大幅に向上したり、ソフトウェア開発やAI研究のタスクを自動で行う能力でも高い性能を示しています。 GPT-5の登場は、AIがより強力になる一方で、安全で倫理的な利用がますます重要になっていることを示しています。OpenAIは、このような広範な安全対策を通じて、AIの責任ある発展を目指していると言えるでしょう。 引用元: https://zenn.dev/microsoft/articles/openai_gpt5_textbook Claude Codeで理想のタスク管理環境を30分で構築した話 エムスリーのエンジニアが、LLMの一種であるClaude Codeを使って、わずか30分で自分専用のタスク管理ツールを構築した事例を紹介しています。 著者は、これまで使っていたタスク管理方法(Jiraやテキストメモ)では、「タスクを気軽に書き込めること」と「見やすく整理して表示できること」の両立が難しいという課題に直面していました。複雑なツールは結局使わなくなるリスクがあるため、手軽に運用できるものを作ることを目指しました。 この課題を解決するため、著者はClaude Codeを「対話型インターフェース」として活用しました。具体的には、データベースの代わりにシンプルなテキストファイル(current.md)を用意し、Claude Codeの動作ルールを「CLAUDE.md」という設定ファイルに自然言語で細かく定義していきました。例えば、タスクのステータス(GO待ち、開発中など)や、メモ、関連URLの管理方法、そして「タスクの追加」「ステータスの更新」「出力フォーマット」といった様々な操作を、コードを一切書かずに自然な言葉で指示できるように設定していったのです。この設定は、運用しながら少しずつ改善を重ねた結果、現在の形に落ち着いたとのことです。 結果として、このツールは期待以上の実用性を示しました。...
    Show More Show Less
    Less than 1 minute
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250818
    Aug 17 2025
    関連リンク GPT-5の出力品質を低下させる「絶対にやってはいけないプロンプト」 【生成AI事件簿】OpenAI史上最も賢く、速いGPT-5に「頭が悪くなった」の批判、なぜ問題が起きてしまったのか 2025年8月7日、OpenAIは最新のAIモデル「GPT-5」をリリースしました。OpenAIはこれを「史上最も賢く、速く、有用なフラッグシップモデル」と表現し、CEOのサム・アルトマン氏も「博士号取得者レベルの専門家のように賢い」と語るなど、大きな期待が寄せられました。実際、米国の高校生向け数学コンテスト(AIME 2025)では94.6%という高い正答率を記録するなど、性能面では優れた結果を出しています。 しかし、リリース直後から多くのユーザーから「出力品質が低下した」「以前より頭が悪くなった」という批判が相次ぎました。この問題には、いくつかの理由があります。 最大の原因は、GPT-5が単一の巨大なAIモデルではなく、複数の異なるAIモデルを組み合わせて作られていることにあります。具体的には、簡単な質問に素早く答えるための「高速(Fast)モデル」と、複雑な質問に時間をかけてじっくり考えて答えを出す「推論(Thinking)モデル」などがあり、ユーザーの質問内容に応じて、これらのモデルを自動的に使い分ける「ルーター」という仕組みが導入されています。(さらに、有料版ユーザー向けにはより高性能な「プロ(Pro)モデル」も用意されています。) ところが、GPT-5が発表された当初、この「ルーター」に深刻なバグがあったことがOpenAIの説明で明らかになりました。このバグのために、本来であればじっくり考えるべき難しい質問に対して、誤って高速応答用のモデルが選択されてしまう事態が頻繁に発生してしまいました。結果として、GPT-5は本来持っているはずの実力よりも、はるかに「頭が悪く」見えてしまい、ユーザーの期待を裏切る形になってしまったのです。 また、OpenAIがGPT-5のリリースに合わせて、以前のモデルであるGPT-4oへのアクセスを停止したことも、ユーザーの不満を増大させる一因となりました。CEOによる「博士のように賢い」といった事前の期待を煽る発言も、実際のユーザー体験とのギャップが大きかったため、かえって反発を招いたと考えられます。 この出来事は、最新のAIモデルを開発・運用する上で、その複雑な内部構造を適切に制御する仕組みがどれほど重要であるか、そしてユーザーへの期待値を適切に伝えることの大切さを教えてくれる事例と言えるでしょう。 引用元: https://jbpress.ismedia.jp/articles/-/90037 Refine your initial prompt instead of course-correcting AIを活用した開発が進む中で、AIコーディングエージェントに期待通りのコードを生成してもらうのは、時に難しいと感じるかもしれません。一度プロンプト(AIへの指示)を出してみて、思った結果が得られなかった時、皆さんはどうしていますか?おそらく、「ここをこう直して」「もっと詳しく言うと」といった形で、会話を続けて修正指示を出していませんか? 実は、この「都度修正」というアプローチは、AIエージェントを混乱させ、結果的に期待以下の成果しか得られない原因になることが多いと、この記事は指摘しています。人間同士の会話に例えると、同僚に仕事を頼んだ後、何度も指示を変えたり、追加したりすると、相手は混乱してしまい、最終的に何がしたかったのか分からなくなるのと同じです。AIも同様で、過去の指示と新しい指示が矛盾したり、情報が積み重なって解釈が難しくなったりすることで、パフォーマンスが低下してしまいます。 では、どうすれば良いのでしょうか?この記事が推奨するのは、「最初のプロンプトを編集して改善する」というアプローチです。 最初のプロンプトを直接編集し、改善することで、AIエージェントは以下のようなメリットを受けられます。 一貫した明確な指示: AIは、散らばった情報ではなく、一つにまとまった「最終的な指示」を受け取れます。状態のリセット: 多くのAIコーディングエージェントは、最初のプロンプトが編集されると、それまでの作業状態をリセットし、まっさらな状態から指示を再解釈してくれます。完全...
    Show More Show Less
    Less than 1 minute
  • 私立ずんだもん女学園放送部 podcast 20250815
    Aug 14 2025
    関連リンク A Comprehensive Survey of Self-Evolving AI Agents: A New Paradigm Bridging Foundation Models and Lifelong Agentic Systems 最近、AIエージェントが注目を集めていますが、これまでの多くのエージェントは、一度設定されると環境の変化に適応するのが苦手でした。これは、私たちが生きる現実の世界が常に変化しているため、大きな課題となっていました。 そんな中で、新たな研究の方向性として「自己進化型AIエージェント」が登場しました。これは、AIが現実世界とのやり取り(インタラクションデータ)や、環境からのフィードバックを通じて、まるで生き物のように自ら学習し、進化していくことを目指すものです。最新の基盤モデル(例えば、大規模言語モデルのような、たくさんのデータで事前に学習された高性能なAIの土台)が持つ静的な能力と、AIが一生涯にわたって状況に適応し続ける「ライフロングなエージェントシステム」に必要な継続的な柔軟性を橋渡しする役割を担います。 この論文は、自己進化型AIエージェントに関するこれまで研究されてきた技術を幅広くレビューしています。まず、自己進化するエージェントの設計の核となる「フィードバックループ」を、「システム入力(System Inputs)」、「エージェントシステム(Agent System)」、「環境(Environment)」、「最適化装置(Optimisers)」という4つの主要な要素からなる統一的な枠組みで整理しています。この枠組みを使うことで、様々な進化戦略を理解し、比較することができます。 論文では、この枠組みに基づいて、エージェントシステムの様々な部分を対象とした多様な自己進化技術が体系的に紹介されています。また、医学、プログラミング、金融といった専門分野で、それぞれの制約に合わせて開発された進化戦略についても掘り下げて分析しています。さらに、自己進化型AIエージェントの評価方法、安全性、そして倫理的な考慮事項についても重要な議論がなされています。 この論文は、AIエージェントの研究者や開発者(私たちのようなエンジニアも含まれますね)が、自己進化型AIエージェントについて体系的に理解するための貴重な情報源となります。これによって、将来的にはもっと柔軟で、自律的に動き、常に学び続けるAIエージェントが開発される基盤が築かれると期待されています。 引用元: https://arxiv.org/abs/2508.07407 Claude Codeでできることを一通りまとめてみた この記事は、Anthropic社が開発したCLI(コマンドラインインターフェース)ベースのAIコーディングエージェント「Claude Code」について、その概要と主要な機能を紹介しています。エンジニアが日々の開発でAIを効果的に活用するためのヒントが盛り込まれており、特に新人エンジニアにも分かりやすい内容です。 Claude Codeは、安全性とコーディング能力に強みを持つ大規模言語モデル(LLM)「Claude」を基盤としたツールです。2025年5月に一般公開され、プログラマーに人気のテキストエディターであるVS Codeへの対応でさらに注目を集めました。 主な特徴として、人間が使う自然な言葉(自然言語)での指示から、高品質なコードを生成できる点が挙げられます。例えば、「簡単なWebサイトを作ってほしい」といった指示を与えるだけで、Claude Codeが自動的に「ToDoリスト」を作成し、プロジェクトのセットアップからコード生成までを自律的に進めることができます。 また、開発でよく使うGitHubとの連携も強力です。GitHub CLIツールと組み合わせることで、作成したコードのコミットやPull Request(プルリクエスト:コードの変更を提案する機能)の作成を自動で行うことが可能です。既存のIssue(課題やタスク)をClaude Codeに指示すれば、その内容に沿った開発作業を進め、最終的にPull Requestを自動で作成するといった開発フローも実現できます。さらに、GitHub Actionsと連携すれば、GitHubのリポジトリのコメントで@claudeとメンションするだけで、AIがタスクを実行し、進捗を報告しながら開発を進めるという革新的な使い方もできます。これは、まるでAIがチームメンバーのように開発に参加するイメージです。 さらに注目すべき機能として「MCP(Model ...
    Show More Show Less
    Less than 1 minute