Episodes

  • 私立ずんだもん女学園放送部 podcast 20251128
    Nov 27 2025
    youtube版(スライド付き) 関連リンク GitHub Copilot カスタムエージェントのための agents.md 作成ベストプラクティス GitHub Copilotの新しい「カスタムエージェント」機能をご存じでしょうか?これは、AIアシスタントに特定の役割や専門知識を与え、開発を効率化するものです。本記事は、このカスタムエージェントの設定ファイル「agents.md」の効果的な作り方を、新人エンジニアにも分かりやすく解説します。GitHubが2,500以上のリポジトリを分析して得た知見が基になっています。 agents.mdファイルは、リポジトリの.github/agents/に配置し、エージェントの役割、使用ツール(read, edit, shellなど)、プロジェクト構造、コードスタイルなどを定義します。これにより、バックエンド専門やフロントエンド専門といった、特化したエージェントチームを構築できます。 効果的なagents.mdには、以下の6つの要素が重要です。 コマンド: エージェントが実行する具体的なコマンドを明確に書きます。テスト: 使用するテストフレームワークやテストの実行方法を具体的に指定します。プロジェクト構造: ディレクトリ構成とその役割を記述し、エージェントがファイルを理解しやすくします。コードスタイル: 推奨されるコードの書き方と避けるべき書き方を、具体的な例で示します。Gitワークフロー: ブランチ命名規則やコミットメッセージのフォーマットなど、開発プロセスを定義します。境界線: エージェントが「必ずやること」「確認が必要なこと」「絶対にやってはいけないこと」を明確にし、意図しない挙動を防ぎます。 曖昧な指示や複雑すぎる設計は、エージェントのパフォーマンスを低下させます。最初は完璧を目指さず、「最小限の設定から始め、問題があればルールを追加していく」という段階的なアプローチが推奨されます。 カスタムエージェントの大きな利点は、複数の開発タスク(Issue)に適切なエージェントをアサインし、並行して効率的に作業を進められることです。エージェントが正しく作業するためには、Issueに必要な情報(背景、要件、受け入れ条件など)がしっかり記載されていることが不可欠です。Issue作成自体もエージェントに任せることで、必要な情報が漏れなくそろい、開発の精度と効率がさらに向上するでしょう。 AIオーケストレーションを上手に活用し、皆さんの開発ライフをより豊かなものにしてください。 引用元: https://zenn.dev/studypocket/articles/github-copilot-agents-md-best-practices Programmatic Tool Calling(PTC)の何が新しいのか? Anthropicが、対話型AI「Claude」の新しいAPI機能として「Programmatic Tool Calling」(PTC)を公開しました。これは、Claudeが外部のツールを使う方法を大きく進化させる技術です。新人エンジニアの皆さんも、これからのAIエージェント開発で役立つポイントなので、ぜひ知っておきましょう。 これまでのTool Use(ツール利用)では、Claudeがツールを一つ使うたびに「次はこれをやろう」と判断し、その結果を会話の履歴(これを「コンテキスト」と呼びます)に全て記録していました。ツールをたくさん使う複雑なタスクでは、このコンテキストがどんどん長くなり、「コンテキスト肥大化」という問題が起きていました。コンテキストが長くなると、情報処理のコストが増えるだけでなく、Claudeが重要な情報を見落としたり、判断を誤ったりする「context rot(コンテキスト腐敗)」と呼ばれる精度低下の問題も発生しやすかったのです。 PTCでは、この課題を根本的に解決します。Claudeは、複数のツールを呼び出す一連の処理をまとめたPythonコードを一度に生成します。このコードは、Anthropicが用意した特別な実行環境(「サンドボックス」と呼びます)の中で動きます。重要なのは、ツールが実行されたときの中間的なデータ(例えば、大量のデータ分析結果など)は、このサンドボックスの中にだけ保持され、Claudeのコンテキストには直接戻されない点です。Claudeが受け取るのは、サンドボックスでの処理が終わった後の「最終的な結果」だけになるため、コンテキストが肥大化するのを防げます。 実際に検証した結果、従来のTool Use方式と比較して、PTC...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20251127
    Nov 26 2025
    youtube版(スライド付き) 関連リンク 「Goで作る自作コーディングエージェント nebula 開発入門」が良かった この記事では、著者が「Goで作る自作コーディングエージェント nebula 開発入門」という書籍を通して、Go言語でAIコーディングエージェント「nebula」を実際に開発した体験談が語られています。著者はこの実践的な学習が非常に有益で、深い学びがあったと評価しています。 新人エンジニアの皆さんにとって、「AIエージェント」という言葉はまだ聞き慣れないかもしれません。これは簡単に言うと、まるで人間のように目標を設定し、外部の情報を使ったり判断したりしながら、自律的にタスクをこなすAIプログラムのことです。特に「コーディングエージェント」は、指示に基づいてコードを書いたり修正したりするAIですね。この本は、そんなAIエージェントの「仕組み」をGo言語で作りながら学べる、実践的な入門書です。 この実践で得られる主な学びは、AIエージェントの「賢さ」や「振る舞い」を司る重要な設計パターンです。例えば、 ツールコール: AIが外部のプログラムやAPI(例えば、ファイルを読み書きする機能やWeb検索機能など)を適切に呼び出し、利用する仕組み。これにより、AIは自身が持たない能力を拡張できます。システムプロンプト設計: AIに対して「あなたはどのような役割で、どのように振る舞うべきか」を指示する、AIの「憲法」のようなもの。これをしっかり設計することで、AIは意図した通りに動きます。メモリ機能設計: AIが過去の会話履歴や学習した情報を覚えておき、それを次の行動に活かす仕組み。人間が経験から学ぶように、AIも「記憶」を持つことでより高度な判断ができるようになります。 これらはコーディングエージェントだけでなく、あらゆるAIエージェント開発に応用できる基礎中の基礎であり、実際に手を動かして理解できたことが大きな収穫だったと著者は述べています。 著者はこの書籍の内容を参考に、自身のGitHubリポジトリ(https://github.com/shibayu36/nebula)で「nebula」を公開しています。単に写経するだけでなく、一部の設計を改善したり、セッション一覧表示やコードの差分表示といった実用的な機能を追加したりと、自分なりに工夫を凝らしている点も注目です。これにより、読者は単なる写経を超えた、より深い理解と応用力を養うヒントを得られるでしょう。 Go言語での開発経験があり、AIエージェントという新しい技術分野に挑戦してみたい新人エンジニアにとって、この書籍は最適な学習リソースとなるはずです。著者の経験から、全ての学習を終えるのにかかる時間は約10時間程度とのこと。短期間で実践的なAI開発の基礎を身につけ、今後のキャリアの選択肢を広げるきっかけにもなりそうです。AIの進化が著しい今、Go言語とAIエージェントの組み合わせは、皆さんのスキルアップに大いに役立つでしょう。 引用元: https://blog.shibayu36.org/entry/2025/11/25/170000 人工知能は拡散言語モデルの夢を見るか? PredNext ブログ 2025年現在、「拡散言語モデル」という新しい技術が注目を集めています。これは、現在の大規模言語モデル(LLM)の主流である「自己回帰モデル型Transformer」が抱える性能上の課題を解決する可能性を秘めているためです。 現在のLLMは、文章を構成する単語(トークン)を一つずつ順番に予測して生成する「自己回帰モデル」という仕組みで動いています。この方式では、前の単語の生成が終わらないと次の単語の生成に進めないため、計算を並列に処理するのが難しいという特徴があります。さらに、モデルの規模が大きくなるにつれて、1トークンを生成するたびに非常に巨大なモデルデータ(例えば700億パラメータのモデルで70GB)を、メモリ(DRAM)からプロセッサ(GPUなど)へ何度も読み込む必要が生じます。このデータ転送の頻度と量が多すぎると、プロセッサがフル稼働できず、メモリとの間のデータ帯域が「ボトルネック」(処理速度の限界)となってしまうのです。 この非効率さを「B/F」(Bytes per FLOP:1回の浮動小数点演算に必要なデータ転送バイト数)という指標で表現します。...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20251126
    Nov 25 2025
    youtube版(スライド付き) 関連リンク Introducing shopping research in ChatGPT ChatGPTに、商品の購入検討をサポートする「ショッピングリサーチ」という新機能が導入されました。この機能は、私たちが製品を選ぶ際にかかる時間と手間を大幅に削減し、より賢い選択を支援してくれます。 具体的には、「小さなアパートに最適な静音のコードレス掃除機を探して」「この3つの自転車から選ぶのを手伝って」のように、求めている商品をChatGPTに伝えるだけで、詳細な購入ガイドを作成してくれます。私たちはこれまで、何十ものサイトを比較検討したり、レビューを読み込んだりしていましたが、この機能がそれらの調査を代行してくれるのです。 ショッピングリサーチは、ユーザーの過去の会話履歴や「記憶」機能から得た情報を活用し、スマートな質問を通じてニーズを深く掘り下げます。例えば、予算や重視する機能など、具体的な条件を聞き出すことで、よりパーソナライズされた結果を提供します。電子機器、美容品、家庭用品など、特に詳細な情報が必要なカテゴリでその威力を発揮します。 利用方法はとても簡単です。商品に関する質問をすると、ChatGPTが自動的に「ショッピングリサーチ」の利用を提案してくれます。または、メニューから直接選択することも可能です。利用中は対話形式で、ChatGPTが提示する製品オプションに対して「興味なし」や「もっとこれに似たものを」といったフィードバックを返すことで、リアルタイムでリサーチ内容を調整し、希望に合った製品へと絞り込めます。数分後には、主要な製品、それぞれの違いや長所・短所、信頼できる小売店からの最新情報がまとまった、自分だけの購入ガイドが手に入ります。 この機能は、GPT-5 miniをベースに、ショッピングタスクに特化して強化学習で訓練されたモデルによって動いています。信頼性の高い情報源から情報を収集し、複数の情報源を統合して質の高い調査結果を生成します。また、透明性も重視されており、ユーザーのチャット内容が小売業者と共有されることはありません。結果は公開されている小売サイトの情報を元に生成され、低品質なサイトは避けられています。 ただし、まだ完璧ではないため、価格や在庫などの製品詳細には誤りが含まれる可能性もあります。最終的な購入の際には、必ず小売業者のサイトで最新情報を確認することが推奨されています。OpenAIは今後も、ユーザーの好みをより深く理解し、対応するカテゴリを増やし、製品の比較や発見をより直感的に行えるように、この機能を進化させていくとしています。この新しい機能は、AIアシスタントが単なる情報提供だけでなく、より具体的なタスクをこなす「AIエージェント」へと進化していることを示す良い例と言えるでしょう。 引用元: https://openai.com/index/chatgpt-shopping-research Using skills with Deep Agents Anthropic社が提唱する「エージェントスキル」という新しい概念をLangChainのAIエージェントフレームワーク「deepagents-CLI」がサポートしたという発表がありました。これは、AIエージェントの性能を向上させ、開発・運用の効率を高める重要な一歩です。 エージェントスキルとは、簡単に言うと、特定のタスクをこなすためのファイル群(SKILL.mdという説明ファイルと、それに関連するドキュメントやスクリプトなど)をまとめたフォルダのことです。AIエージェントは必要に応じて、これらのスキルを動的に見つけて読み込み、利用できます。 近年、Claude CodeやManusのような汎用AIエージェントが普及していますが、意外にも、これらのエージェントが実際に使うツールはごく少数であることが分かっています。彼らが少ないツールで多様なタスクをこなせる秘密は、コンピュータ自体へのアクセス(Bashシェルやファイルシステム操作)を持っている点にあります。これにより、人間がパソコンでファイル操作やスクリプト実行をするように、エージェントも特別なツールなしに多くの作業を行えるのです。LangChainのdeepagentsも、この原則に基づいてファイルシステム操作とコード実行機能を備えています。 エージェントスキルは、...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20251125
    Nov 24 2025
    youtube版(スライド付き) 関連リンク Google Antigravity のスタートガイド Google Codelabs 皆さん、こんにちは!今回は、Googleが新たに発表した画期的なAI開発プラットフォーム「Google Antigravity」について、新人エンジニアの皆さんにも分かりやすくご紹介します。 Antigravityは、今までの開発環境(IDE)を「エージェントファースト」という新しい時代へと進化させるツールです。従来のAIがコードを自動補完するだけだったのに対し、AntigravityではAIがまるで一人前のエンジニアのように、開発の「計画」「コーディング」「ウェブサイトの調査」「テスト」といった複雑なタスクを、自律的にこなしてくれます。私たちはAIに細かい指示を出すというより、プロジェクト全体のゴールを伝え、AIエージェントにその達成を任せる、というイメージですね。 このプラットフォームの主な特徴は以下の通りです。 エージェントマネージャー(ミッションコントロール): 複数のAIエージェントを同時に管理できる「管制室」のようなダッシュボードです。例えば、「認証機能をリファクタリングして」「依存関係を更新して」といった異なるタスクを複数のAIエージェントに並行して指示し、進捗を一覧で確認できます。まるでプロジェクトマネージャーのように、AIエージェントたちを指揮する感覚です。AIエージェントにどれくらいの自由度で作業させるか(ターミナルコマンドの実行や、作業内容のレビューを求める頻度など)も細かく設定できます。エディタ: お馴染みのVS Codeをベースに作られており、コード編集のしやすさはそのままに、AIエージェントとの連携が強化されています。コードの一部をハイライトして「ここをもっと効率的にしてほしい」「このロジックにコメントを追加して」といった指示を直接AIに出せるのが便利です。Antigravityブラウザ: AIエージェントが自らChromeブラウザを操作し、ウェブサイトにアクセスして情報収集をしたり、開発したウェブアプリケーションの動作検証を行ったりできます。人間がブラウザを操作するのと同じように、クリックやスクロール、入力などが可能です。アーティファクト: AIエージェントが作業する過程で作成する「作業記録」のことです。例えば、タスクの計画書、コードの変更点(差分)、画面のスクリーンショット、テスト結果の動画などが自動で生成されます。これにより、AIが「何を」「どうやって」作業したのかが明確になり、その作業が正しかったのかを人間が簡単に確認・承認できるようになります。 具体的な活用例としては、以下のようなことができます。 Googleニュースのようなウェブサイトから最新情報を自動で抽出し、要約する。PythonとFlaskを使ったウェブサイトを一から生成し、さらに機能を追加したり修正したりする。ポモドーロタイマーのようなシンプルな生産性向上アプリを生成し、デザインや機能の改善をAIに依頼する。既存のPythonコードに対して、AIが自動で単体テストコードを生成し、実行してその検証まで行う。 Antigravityは、AIが開発プロセスに深く関わる「エージェントファースト」という新しい働き方を提案しています。プログラミングの経験がまだ浅い新人エンジニアの皆さんでも、AIエージェントの力を借りて、複雑な開発タスクに挑戦したり、効率的に学習を進めたりできる素晴らしいツールです。ぜひ一度、この新しい開発体験を試してみてはいかがでしょうか。 引用元: https://codelabs.developers.google.com/getting-started-google-antigravity?hl=ja 仕様書駆動開発で一番いいAIモデル&エージェント検証 11/23版 この記事は、最新のAIモデル(GPT5.1、Gemini 3.0、Sonnet 4.5など)を使い、ソフトウェア開発の手法の一つである「仕様書駆動開発(SDD)」において、どのAIエージェントが最も効果的かを検証したものです。AIが仕様書を作成し、その仕様書に基づいてコードを実装するという2つの段階に分けて、各モデルの性能が比較されています。 検証は、個人開発中のゲーム(約4万行のコードベース)に「歯車システムが特定の条件で破壊される」という機能を追加するタスクを例に行われました。 評価対象となった...
    Show More Show Less
    Less than 1 minute
  • 私立ずんだもん女学園放送部 podcast 20251121
    Nov 20 2025
    youtube版(スライド付き) 関連リンク 量子技術でDeepSeekを55%小型化、「検閲解除」にも成功 スペインのMultiverse Computing社が、AIモデル「DeepSeek R1」を改良し、「DeepSeek R1 Slim」を開発したという興味深いニュースが届きました。この新しいモデルは、量子物理学からヒントを得た特別な技術を使うことで、元のDeepSeek R1とほぼ同じ性能を保ちながら、なんとサイズを55%も小型化することに成功したそうです。 この技術のもう一つの大きなポイントは、DeepSeek R1に元々組み込まれていた「検閲機能」を取り除いたと主張している点です。中国では、AI企業が開発するモデルに、国の法律や「社会主義的価値観」に反する内容を出力させないための検閲機能を組み込むことが義務付けられています。そのため、たとえば「天安門事件」や「くまのプーさん」(習近平国家主席を揶揄するミームとして知られる)といった政治的に敏感な話題について質問すると、AIは回答を拒否したり、特定の情報に偏った回答をしたりすることがあります。 Multiverse Computing社は、この小型化と検閲除去のために「テンソルネットワーク」という数学的な手法を採用しました。これは、AIモデルの複雑な内部構造を、量子物理学の考え方を使って効率的に表現・操作する技術です。例えるなら、巨大なデータのかたまりを、無駄なく整理された地図のようにすることで、モデルのサイズを劇的に小さくできるだけでなく、特定の情報(例えば検閲に関わる部分)をピンポイントで特定し、除去できるようになるイメージです。 実際に、中国で制限される質問(約25種類)を使って検証したところ、改良されたモデルは、元のDeepSeek R1が検閲によって回答を制限するような内容に対しても、西側の一般的なAIモデルと同等に事実に基づいた回答を生成できたと報告されています。 この技術は、大規模言語モデル(LLM)の世界に大きな影響を与える可能性があります。現在、高性能なLLMを動かすには、大量のGPU(画像処理装置)と膨大な電力が必要で、コストもエネルギー消費も大きいです。しかし、今回の研究のようにモデルを大幅に圧縮できれば、より少ないリソースでLLMを動かせるようになり、運用コストやエネルギー消費の削減につながります。さらに、検閲だけでなく、AIが持つ可能性のある「バイアス」(特定の情報への偏り)を取り除いたり、特定の専門知識を効率よくAIに学習させたりする応用も期待されています。 ただし、専門家からは、中国政府の検閲システムは非常に複雑で動的なため、少数の質問への対応だけで検閲を完全に「除去」できたと断言するのは難しい、という慎重な意見も出ています。 この研究は、AIの効率化、カスタマイズの可能性、そしてAIと社会・倫理的な問題がどのように交差するかについて、私たちエンジニアが深く考えるきっかけを与えてくれるでしょう。 引用元: https://www.technologyreview.jp/s/372724/quantum-physicists-have-shrunk-and-de-censored-deepseek-r1/ LLM で使われる位置情報のベクトル化について調べてみる この記事では、ChatGPTのような大規模言語モデル(LLM)の基盤技術であるTransformerモデルが、文章中の単語の「位置」をどのように扱っているか、そのための「位置エンコーディング」という技術について、様々な手法を分かりやすく解説しています。 Transformerモデルの根幹技術である「自己注意機構」は、単語同士の関係性を計算しますが、そのままでは単語の順序や位置を考慮できません。例えば、「猫が犬を追いかける」と「犬が猫を追いかける」では意味が全く異なりますよね。この問題を解決するために、単語のベクトルに位置情報を加えることで、単語の並び順も考慮できるようになります。 主要な位置エンコーディングの手法は以下の通りです。 絶対位置エンコーディング (Absolute Position Encoding): Transformerの元論文で使われた基本的な手法です。文の先頭から何番目の単語かという「絶対的な位置」を、数学的な関数(三角関数)を使ってベクトルで表現し、単語の埋め込みに足し合わせます。シンプルですが、非常に長い文章の場合、学習データに登場しないような遠い...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20251120
    Nov 19 2025
    youtube版(スライド付き) 関連リンク Building more with GPT-5.1-Codex-Max 日本の新人エンジニアの皆さん、こんにちは!OpenAIから、皆さんの開発を大きく助けてくれる新しいAIエージェント型コーディングモデル「GPT-5.1-Codex-Max」が発表されました。これは、これまでのAIモデルの限界を超え、より賢く、速く、そして効率的にコード開発をサポートすることを目指しています。 何が新しいの? このモデルの最大の進化は、「Compaction(コンパクション)」という新しい技術によって、「長時間の詳細な作業」をこなせるようになった点です。これまでのAIは、一度に扱える情報量(コンテキストウィンドウ)に限りがあり、長い時間のかかる複雑なタスクでは途中で「あれ?何してたっけ?」となってしまうことがありました。 しかし、GPT-5.1-Codex-Maxは、まるで人間がメモを取りながら考えるように、必要に応じて過去の情報を整理・圧縮することで、何百万ものトークンを扱う大規模なプロジェクトのリファクタリングや、数時間にわたるデバッグセッション、さらには自律的なエージェントループまで、途切れることなく作業を続けられるようになりました。社内評価では24時間以上も独立して作業し、テストの失敗修正までこなした例もあるそうです。 開発体験はどう変わる? 高速・高効率・低コスト: より少ないトークンで高い性能を発揮するため、開発コストの削減にも繋がります。例えば、高品質なフロントエンドデザインを、以前より低いコストで作成できるようになりました。実践的な開発作業に強い: PR(プルリクエスト)の作成、コードレビュー、フロントエンドコーディング、Q&Aなど、実際のソフトウェア開発現場で必要とされるタスクに特化して学習されています。なんと、Windows環境での動作にも対応しました。 利用方法と注意点 GPT-5.1-Codex-Maxは、現在、CodexのCLI(コマンドラインインターフェース)、IDE(統合開発環境)拡張機能、クラウド、コードレビューなどで利用可能です。APIアクセスも近日提供予定です。 ただし、AIエージェントの利用にはいくつかの注意点があります。 人間による確認の重要性: AIが生成したコードやレビュー結果は、最終的には人間が確認し、承認することが非常に重要です。AIはあくまで強力な「共同作業者」であり、人間の「代替」ではありません。セキュリティ: Codexはデフォルトで安全なサンドボックス環境で動作しますが、インターネットアクセスなどを有効にする場合は、プロンプトインジェクションなどのリスクに注意が必要です。 OpenAI社内では、すでにエンジニアの95%が週にCodexを利用し、プルリクエストの提出数が約70%も増加したとのこと。GPT-5.1-Codex-Maxは、皆さんの開発生産性を劇的に向上させる可能性を秘めています。この新しいツールをぜひ活用して、素晴らしいものを生み出してください! 引用元: https://openai.com/index/gpt-5-1-codex-max LLMで業務ワークフローを自動生成・最適化する! 〜ワークフロー自動生成・最適化の取り組みについて〜 LLM(大規模言語モデル)は様々なタスクに利用できますが、複数のステップを組み合わせるような複雑な業務を丸ごと任せるのは難しい場合があります。そこで注目されているのが、LLMとプログラミングコード(Pythonなど)を組み合わせて、複雑なタスクを効率的に処理する「AIワークフロー」です。例えば、「文章を要約する」→「情報を抽出する」→「整形する」といった流れを自動化します。 しかし、このAIワークフローを作るには、「どんなステップを組み合わせるか」「各ステップでどんな指示(プロンプト)を出すか」といった設計に、多くの時間と手間がかかるのが課題でした。また、LLMのアップデートや扱うデータが変わると、ワークフローを修正する必要があり、これが運用上の負担となっていました。 LayerXでは、これらの課題を解決するために、AIワークフローを自動で生成・最適化する技術に取り組んでいます。この技術は、Generator(LLMで新しいワークフローのアイデアを出す)、Executor(アイデアを試す)、Evaluator(試した結果を評価する)、Memory(過去の経験から...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20251119
    Nov 18 2025
    youtube版(スライド付き) 関連リンク Start building with Gemini 3 Googleは、これまでで最もインテリジェントなAIモデル「Gemini 3 Pro」を発表しました。このモデルは、新人エンジニアの方でも、あなたのアイデアをAIを活用したアプリケーションとして実現できる、非常にパワフルなツールです。 Gemini 3 Proは、これまでのモデルを大きく上回る性能を持ち、特にAIの評価基準やコーディングタスクで優れた結果を出しています。AIが自律的に複雑なタスクを処理したり、ゼロからのコーディングもこなしたりする「エージェントワークフロー」において、その真価を発揮します。 開発者は、Google AI Studioや企業向けのVertex AIを通じて、Gemini APIを利用してGemini 3 Proにアクセスできます。これにより、既存の開発プロセスにAIの力を簡単に組み込むことができます。 また、Gemini 3 Proは、開発のあり方を大きく変える可能性を秘めています。 一つは「Agentic coding(エージェントコーディング)」です。これは、AIが自らコードの生成、デバッグ、リファクタリングといった一連の作業を計画し実行する、自律的なコーディングを可能にします。Google Antigravityという新しいエージェント開発プラットフォームを使えば、まるでAIアシスタントと共同作業するように、タスクベースで開発を進められます。エディタ、ターミナル、ブラウザを横断してAIが動くイメージです。 もう一つは「Vibe coding(バイブコーディング)」です。これは、自然言語でアイデアを伝えるだけで、AIがその意図を理解し、インタラクティブなアプリケーションを自動で生成してくれるという画期的なアプローチです。複雑なコーディング知識がなくても、あなたのひらめきを直接アプリの形にできます。Google AI Studioで、たった一つのプロンプト(命令文)からゲームやウェブサイトを開発することも可能です。 さらに、Gemini 3 Proは「マルチモーダル理解」においても進化を遂げています。これは、テキストだけでなく、画像や動画、さらには空間的な情報までを総合的に理解する能力です。例えば、複雑な書類の内容を正確に読み解いたり、動画の中の動きを高速に認識したり、ロボットや自動運転車の空間認識能力を高めたりできます。画面の要素やユーザーの操作意図を理解し、コンピュータ操作を自動化するような「Visual Computer」といった新しい体験も可能になります。 Gemini 3 Proは、開発者がAIを活用して、これまでにないものを作り出すための強力な基盤となるでしょう。既存のツールやワークフローにシームレスに組み込まれ、あなたの創造性を最大限に引き出すことを目指しています。ぜひGoogle AI StudioでGemini 3 Proを試し、AIとの新しい開発体験を始めてみてください。 引用元: https://blog.google/technology/developers/gemini-3-developers/ Solving a Million-Step LLM Task with Zero Errors この論文は、大規模言語モデル(LLM)が抱える「長大なタスクをエラーなく実行できない」という課題に対し、画期的な解決策を提示しています。これまでのLLMは、思考やツールの利用で素晴らしい進歩を見せていますが、人間や組織が行うような何百、何千ものステップを要する複雑なプロセスになると、どこかで間違いが生じ、途中で処理が破綻してしまうことが課題でした。例えば、有名な「ハノイの塔」のような古典的な問題解決タスクのベンチマーク実験では、わずか数百ステップで処理が立ち行かなくなることが示されています。 本論文で紹介されている「MAKER」というシステムは、この問題を克服し、なんと100万ステップを超えるLLMタスクを「エラーゼロ」で成功させることに世界で初めて成功しました。これは、理論上さらに大規模なタスクにも対応できる可能性を秘めています。 MAKERのアプローチの鍵は、二つの革新的な要素にあります。 一つ目は、「極端なタスク分解(extreme decomposition)」です。これは、非常に複雑な一つの大きなタスクを、それぞれが非常にシンプルで実行しやすい「マイクロエージェント」と呼ばれる専門の小さなAIプログラムに割り振られる、極めて細かなサブタスクへと徹底的に分解する手法です。これにより、各ステップ...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20251118
    Nov 17 2025
    youtube版(スライド付き) 関連リンク Agents 2.0: From Shallow Loops to Deep Agents AIエージェントは、近年非常に注目されている技術です。これまで主流だった「Agent 1.0(シャローエージェント)」は、AIモデルがユーザーの指示を受けてツールを使い、結果を返すというシンプルな仕組みで動いていました。例えば、「東京の天気は?」といった簡単な質問には素早く答えられます。 しかし、「10社の競合を調査して、比較表を作り、戦略レポートをまとめる」といった、何十ものステップが必要で数日かかるような複雑なタスクになると、Agent 1.0には限界がありました。AIモデルの一時的な記憶(コンテキストウィンドウ)がすぐにいっぱいになり、これまでの会話履歴や指示が消えてしまったり、本来の目標を見失ったり、間違った方向に進んで戻れなくなったりすることが多々ありました。まるで、一度にたくさんのことを覚えられない新人さんのように、情報過多で混乱してしまっていたのです。 この課題を解決するために登場したのが、「Deep Agents(Agent 2.0)」という新しい考え方です。Deep Agentsは、単に反応するだけでなく、より能動的に問題を解決するためのアーキテクチャを持っています。その鍵となるのが、以下の4つの柱です。 明示的な計画 (Explicit Planning): AIエージェントが漠然と考えるのではなく、まるでToDoリストを作るように具体的な計画を立て、実行します。途中で何かに失敗しても、計画を見直して修正することで、タスク全体を見失わずに進められます。階層的な役割分担(サブエージェント) (Hierarchical Delegation): 複雑なタスクを、一つのエージェントが全てこなすのではなく、「司令塔」となるエージェントが、「調査担当」や「プログラミング担当」といった専門の「サブエージェント」に仕事を割り振ります。各サブエージェントは自分の専門分野に集中し、その結果だけを司令塔に報告することで、効率よく役割分担ができます。永続的な記憶 (Persistent Memory): AIモデルの一時的な記憶だけに頼らず、ファイルやデータベースといった外部の記憶装置に中間結果や重要な情報を保存します。これにより、必要な情報をいつでも取り出せるようになり、記憶の限界を突破します。詳細な指示(コンテキストエンジニアリング) (Extreme Context Engineering): AIモデルが賢くなったからといって、簡単な指示だけで動くわけではありません。「いつ計画を立てるか」「どんな時にサブエージェントに仕事を任せるか」「ツールの使い方」など、非常に具体的で詳細な指示をAIモデルに与えることで、複雑な行動を精密にコントロールします。 Deep Agentsは、これらの工夫を通じて、AIエージェントが数秒で終わるタスクだけでなく、数時間や数日かかるような、より大規模で複雑な問題にも挑戦できるようになることを目指しています。これは、AIモデル自体の性能向上だけでなく、そのモデルをいかに効果的に設計し、活用するかの「エンジニアリング」の重要性を示唆しています。AIエージェントは、ただの「反応するプログラム」から「能動的に問題を解決するパートナー」へと進化していると言えるでしょう。 引用元: https://www.philschmid.de/agents-2.0-deep-agents Claude Code on the Web を超える!? Codex Cloud の実践テク5選 Web上で動くAIエージェントは、自分のパソコン環境(ローカル環境)と完全に分かれているため、とても便利ですが、使う上での制約もあります。例えば、「どうやって開発を進めるかの計画が立てにくい」「AIが作った設計書の確認が難しい」「ローカル環境との連携がスムーズにいかない」といった悩みを持つエンジニアもいるかもしれません。 この記事では、OpenAIが開発したクラウドベースのAIコーディングエージェント「Codex Cloud」を使うことで、これらの悩みを解決し、効率的に開発を進める実践的な方法が紹介されています。高機能なWeb上のAIエージェント「Devin」は月額500ドルかかる場合がありますが、Codex CloudはChatGPTの有料プランがあれば利用できるため、手軽に始められるのが大きな魅力です。 Codex Cloudは、インターネット上の安全な隔離された環境で動作し...
    Show More Show Less
    Less than 1 minute