株式会社ずんだもん技術室AI放送局 cover art

株式会社ずんだもん技術室AI放送局

株式会社ずんだもん技術室AI放送局

By: 株式会社ずんだもん技術室AI放送局
Listen for free

About this listen

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。(MC 月:春日部つむぎ、火水木:ずんだもん、金:お嬢様ずんだもん)
Episodes
  • 株式会社ずんだもん技術室AI放送局 podcast 20260113
    Jan 12 2026
    youtube版(スライド付き) 関連リンク AI エージェントのために CLI でブラウザを操作する agent-browser 本記事は、Vercelが開発したAIエージェント向けのブラウザ操作ツール「agent-browser」について解説しています。AIエージェントが自律的にタスクをこなす際、特にフロントエンド開発においては「ブラウザ上での動作確認」が不可欠ですが、これまでの手法にはLLMの特性上の課題がありました。 1. 概要と開発の背景 「agent-browser」は、CLI(コマンドラインインターフェース)を通じてブラウザを操作するためのツールです。これまでAIにブラウザを操作させる手段としては「Playwright MCP」などが主流でしたが、これらはツールの定義や操作の中間過程がLLMの「コンテキスト(一度に処理できる情報量)」を大量に消費してしまうという弱点がありました。Vercelが開発したこのツールは、CLIコマンドを介してやり取りを完結させることで、コンテキストの消費を抑えつつ効率的なブラウザ操作を実現するように設計されています。 2. 主な特徴と制約 このツールの最大の特徴は、現在のページ状態を「アクセシビリティツリー」として取得できる点にあります。 効率的な状態把握: スクリーンショット画像のような重いデータではなく、要素の階層構造やテキスト内容を示す軽量なテキスト情報をLLMに渡すため、AIがページの構造を素早く正確に理解できます。動作環境と制約: 内部でPlaywrightを利用しているため、実行環境にはChromiumブラウザのインストールが必要です。また、ブラウザ自体はバックグラウンド(ヘッドレス)で動作するため、リソース消費を抑えた運用が可能です。操作の仕組み: open(URLを開く)、snapshot(状態取得)、click(クリック)といったシンプルなコマンドをAIに実行させることで操作を行います。 3. AIエージェントへの組み込み Claude Codeなどの最新ツールと組み合わせることで、開発中のWebアプリの動作確認をAIに自律的に行わせることができます。「エージェントスキル」という仕組みを利用して、AIが必要な時だけこのツールを呼び出すように設定すれば、LLMの記憶容量を節約しながら高度な自動化が可能になります。 4. 既存ツールとの比較 Playwright MCPと比較した場合、agent-browserは「コンテキスト消費の少なさ」で勝りますが、要素の特定やクリックの正確性において、現時点ではPlaywright MCPの方が安定している面もあります。これは、AIへのフィードバックの返し方やセレクタの指定方法の違いによるものです。 まとめ 新人エンジニアの皆さんにとって、AIに「ブラウザを操作する能力」を与えることは、テストやデバッグの自動化を劇的に進化させる第一歩となります。agent-browserは、Vercelらしいシンプルかつ効率的なアプローチで、AIエージェントによる開発支援をより実用的なものにしてくれるツールです。 引用元: https://azukiazusa.dev/blog/agent-browser-for-ai-agents/ NeuralGCM harnesses AI to better simulate long-range global precipitation Google Researchが発表した「NeuralGCM」は、従来の物理ベースの気象モデルとAI(ニューラルネットワーク)を組み合わせたハイブリッド型の地球規模大気シミュレーションモデルです。特に予測が困難とされる「降水量」のシミュレーションにおいて、劇的な精度向上を達成しました。 1. 物理学とAIの「ハイブリッド」というアプローチ 従来の気象予測には、流体力学などの物理方程式を解く「数値気象予測」が使われてきました。しかし、雨の源となる「雲」は数百メートル単位の極めて小さなスケールで発生するため、地球規模の大きな網目(グリッド)で計算するモデルでは、細かな物理現象を正確に計算できず、近似式(パラメータ化)に頼らざるを得ないという課題がありました。 NeuralGCMは、大きなスケールの動きは物理エンジンで計算し、雲の形成や降水といった複雑で小さなスケールの現象をAIが担当することで、この課題を解決しています。 2. NASAの衛星データによる直接学習 今回の大きな進展は、AI部分の学習に「NASAの衛星観測データ(IMERG)」を直接使用したことです。 これまでのAIモデルの多くは、物理モデルと観測値を組み合わせた「...
    Show More Show Less
    Less than 1 minute
  • 私立ずんだもん女学園放送部 podcast 20260109
    Jan 8 2026
    youtube版(スライド付き) 関連リンク Dynamic context discovery エンジニアの間で絶大な人気を誇るAIエディタ「Cursor」が、開発効率と精度を劇的に向上させる新技術「Dynamic Context Discovery(動的コンテキスト探索)」を発表しました。 これまでのAI(コーディングエージェント)は、関連しそうな情報をあらかじめプロンプトにすべて詰め込む「静的コンテキスト」に頼ってきました。しかし、情報が多すぎるとトークン(AIが消費する文字数のようなもの)を無駄に消費し、AIが重要な情報を見失って誤答する原因にもなります。そこでCursorは、AIが必要な時に、必要な情報だけを自ら「探しに行く」仕組みへとシフトしました。 このアプローチの核心は「あらゆる情報を『ファイル』として扱う」という非常にシンプルで強力な工夫にあります。具体的には、以下の5つの方法で実装されています。 長い実行結果のファイル化: ツールやコマンドの長い実行結果をプロンプトに直接貼るのではなく、一度ファイルに書き出します。AIは必要に応じてそのファイルを読みに行けるため、情報が途中で切り捨てられる(Truncation)のを防げます。会話履歴の再検索: 会話が長くなり、過去のやり取りを「要約」して圧縮した際、重要な細部が消えてしまうことがあります。履歴をファイルとして保持することで、AIは要約で分からなくなった情報を後から検索して復元できます。Agent Skills(スキルの動的読み込み): 特定のタスク(例:特定のライブラリ操作)の手順を記した「スキル」ファイルを、必要な時だけAIがセマンティック検索で見つけ出し、利用します。MCPツールの効率化: 外部連携ツール(Model Context Protocol)の膨大な定義情報を常に読み込むのではなく、必要なツールの説明だけを動的に読み込みます。これにより、トークン使用量を約47%も削減することに成功しました。ターミナル履歴の同期: 統合ターミナルの出力をファイルとして同期。AIは「grep」などのコマンドを使って、膨大なログの中からエラーの原因だけを特定できます。 新人エンジニアの方にとって、LLMの「コンテキスト制限(一度に覚えられる量の限界)」は大きな壁に感じられるかもしれません。Cursorのこの技術は、情報を闇雲に詰め込むのではなく、「賢く検索して必要な分だけ取り出す」という、ベテランエンジニアがドキュメントを読み解くような動きをAIにさせている点が非常に画期的です。このアップデートにより、大規模なコードベースでもAIがより正確に、そして高速にサポートしてくれるようになります。 引用元: https://cursor.com/blog/dynamic-context-discovery Accelerating LLM and VLM Inference for Automotive and Robotics with NVIDIA TensorRT Edge-LLM NVIDIAは、自動運転車やロボティクスなどのエッジデバイス上で、大規模言語モデル(LLM)や視覚言語モデル(VLM)を高速かつ効率的に動作させるための新しいオープンソースC++フレームワーク「NVIDIA TensorRT Edge-LLM」を発表しました。 背景と開発の目的 これまでLLMの推論フレームワーク(vLLMなど)の多くは、データセンターでの大量の同時リクエスト処理やスループットの最大化を重視して設計されてきました。しかし、自動車やロボットといったエッジ環境では、「単一ユーザーに対する極めて低いレイテンシ」「オフライン環境での動作」「限られたメモリや電力リソース」といった特有の課題があります。TensorRT Edge-LLMは、こうしたエッジ環境特有のニーズに応えるために、ゼロから設計された軽量かつ高性能なソリューションです。 本フレームワークの主な特徴 エッジ特化の軽量設計: C++ベースで依存関係を最小限に抑えており、リソースに制約のある組み込みシステムへの導入が容易です。最新の高速化技術: EAGLE-3 投機的デコーディング: 推論速度を劇的に向上させます。NVFP4 量子化: 高い精度を維持しつつ、メモリ消費と計算負荷を削減します。チャンク化プリフィル (Chunked Prefill): 効率的なトークン処理を可能にします。 高い信頼性: リアルタイム性が求められるミッションクリティカルな製品(自動運転や産業用ロボット)に耐えうる堅牢なパフォーマンスを提供します。 導入の...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20260108
    Jan 7 2026
    youtube版(スライド付き) 関連リンク Googleが開発した次世代AIエージェントIDE「Antigravity」がやばすぎる Google DeepMindが発表した「Antigravity」は、これまでの開発環境の常識を覆す、AIエージェントを中心(Agent-First)に据えた次世代の統合開発環境(IDE)です。従来のIDEが「人間が書き、AIが補完する」ものだったのに対し、Antigravityは「AIエージェントが自律的に動き、人間がそれを監督・共創する」という新しいパラダイムを提示しています。 新人エンジニアの方にとっても、これからの開発スタイルのスタンダードを知る上で非常に重要な技術です。主な要点は以下の通りです。 1. 「Gemini 3」を搭載したエージェント・ファーストな設計 Antigravityは、Googleの最新AIモデル「Gemini 3」シリーズをエンジンとして採用しています。最大の特徴は、AIが単なる「コード補完ツール」ではなく、意思を持ってタスクを完遂する「エージェント」として機能する点です。 エージェントは、必要なAPIのドキュメントを自ら読み込み、実装に向けた具体的な計画を立て、実際にコードを書き、エラーが出れば自律的にデバッグまで行います。これにより、開発者は細かい構文に悩む時間から解放され、システム全体の設計や「どんな価値を提供するか」という本質的な意思決定に集中できるようになります。 2. ブラウザを自ら操作し、動くところまで責任を持つ このIDEにはブラウザが統合されており、AIエージェントは人間と同じようにブラウザを操作できます。コードを書いて終わりではなく、実際にアプリを立ち上げ、クリックやスクロールをしてUIが正しく動作するかをテストします。エラー画面のスクリーンショットを撮って原因を分析する姿は、まさに「自律して動く同僚」そのものです。 3. 「Artifacts(アーティファクト)」による作業の可視化 AIに作業を任せきりにすると「中で何をやっているか分からない」という不安が生まれがちですが、Antigravityは「Artifacts」という仕組みでこれを解決しています。 AIは作業の過程で、TODOリストや実装計画書、作業ログなどを逐次作成し、ユーザーに提示します。開発者はこれらをチェックすることで、AIの思考プロセスを把握し、必要に応じて「そこはこう直して」と指示を出したり、承認したりすることができます。この透明性が、人間とAIの信頼関係を築く鍵となっています。 4. 開発者の脳を「マルチスレッド化」する DeepMindは、この環境を「開発者の脳をマルチスレッド化するもの」と表現しています。一人のエンジニアが複数の機能をAIエージェントに並行して任せ、自分はそれらの進捗を確認・統合していくような、高度なチーム開発に近い体験が可能になります。 まとめ Antigravityは、AIを「便利な道具」から「頼れるパートナー」へと昇華させる試みです。現在はWindows、macOS、Linux向けにパブリックプレビュー版が公開されており、誰でもこの未来の開発体験に触れることができます。これからエンジニアとしてのキャリアを歩む皆さんにとって、AIとどのように手を取り合って生産性を高めていくか、そのヒントが詰まったツールと言えるでしょう。 引用元: https://zenn.dev/mitsuo119/articles/5e6cbda8ada83d 育てるほど楽になる AI 開発体制を作っている話 BLOG - DeNA Engineering 本記事は、DeNAの新規サービス開発チームにおいて、生成AI(Claude CodeやCursor等)を単なる「個人の補助ツール」から「プロジェクトの文脈を理解したチームメンバー」へと引き上げ、開発生産性を劇的に向上させた事例を紹介しています。新人エンジニアの方にとっても、モダンなAI駆動開発の理想形を知る上で非常に参考になる内容です。 1. 背景と課題 複雑なドメインを持つ新規開発プロジェクトでは、「AIの出力がプロジェクト固有のルールに従わない」「レビューでAIが汎用的なことしか言わない」といった課題がありました。これを解決するため、AIに与える「コンテキスト(文脈)」をリポジトリ内で一元管理し、AIを「育てる」仕組みを構築しました。 2. ワークフロー設計の2つの指針 レビュー作業の「量」を減らす: 機械的なチェック(規約違反や単純なバグ)はAIによる一次...
    Show More Show Less
    Less than 1 minute
No reviews yet
In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.