719 Views
November 01, 25
スライド概要
Software engineer at Mercari. Devin Expert
DeepDive into Composer 1 & SWE-1.5 AI Coding Meetup Aichi 1
Agenda ● ● ● Composer1 と SWE-1.5 の概要について SWE-1.5 と Composer 1 のデモ SWE-1.5 を動かすインフラについて ○ Cerebras の秘密 2
自己紹介 ● ● ● ● 株式会社メルカリ ○ AI推進 Kuu Systems プライベート ○ Devin Expert ○ 海外旅行、Vibe Coding 新しいものを試すのが好きです 3
今日言いたいこと ● ● ● 動作速度がめちゃ速いのに精度が高い LLM Modelが登場した 業務でうまく活用できたら、生産性上がりそう LLMの性能競争が1段階ステップアップしたのを感じる 4
Composer1 と SWE-1.5 の概要について ● ● ● Composer 1 ○ Anysphere(Cursorの開発元) が開発したSWE特化のLLM SWE-1.5 ○ Cognition(WindsurfやDevinの開発元) が開発したSWE特化のLLM 両方とも実行速度がかなり早いのに(それなりに)精度の高い結果を返す ○ 既存では、速度が遅い == 精度が高い, 速度が速い==精度が低い傾向に あった中で革命的 ○ 返答速度が速いとtry & errorの速度が速くなるので、生産性が上がる 5
SWE-1.5の実行速度が速いとは OpenRouter 6
SWE-1.5のBenchでの性能比較 https://cognition.ai/blog/swe-1-5 7
SWE-1.5のBenchでの性能比較 https://cognition.ai/blog/swe-1-5 8
Composer1とSWE-1.5を使う方法 ● ● Composer1 ○ Cursor(AI搭載IDE) から使える SWE-1.5 ○ Windsurfから使える 9
高速なLLM返答をどう実現しているのか ● 答え ○ … 10
高速なLLM返答をどう実現しているのか ● 答え ○ LLMに最適化されたハードウェアで速いLLMを動かしてるから 11
SWE-1.5 を動かしてるハードウェア ● ● 一般的にはNVIDIAのGPUが使われる Cerebrasの開発した専用ハードウェア 12
SWE-1.5 を動かしてるハードウェア ● Cerebras ○ 非常識にでかいチップ ○ メモリをチップ上に実装 ■ メモリ帯域がかなり広い ○ 計算機の待ち時間が減って高速化 https://cn.teldevice.co.jp/product/cerebras_cs-2/ 13
推測される情報 ● Cognitionは0からLLMを学習しているのか ○ we selected a strong open-source model as the base for our post-training. We use reinforcement learning (RL) on the Cascade agent harness in our high-quality coding environments to optimize the model for our product and task distribution ○ オープンソースモデルに強化学習を行ったと明言してる https://cognition.ai/blog/swe-1-5 14
推測される情報 ● どのオープンソースモデルなのか ○ GLM系? ○ cerebras/GLM-4.6-REAP-218B-A32B-FP8 · Hugging Face 15
Composer 1 について ● 特徴から見ると、ほぼ SWE-1.5と同じ ○ 速度に振りつつ、精度を担保している ○ 既存のモデルに対して強化学習を実施して最適化 16
Composer 1 と SWE-1.5について 17
実際に動かして比較してみよう ● ● 使うもの ○ Speckit (Spec Driven Development を実現するFramework) ○ Sandテトリスを開発してみよう パターン ○ Cursorで実装してみる ○ Windsurfで実装してみる 18
まとめ ● ● Composer1、SWE-1.5という速くて賢いモデルが出てきてる とりあえず、使ってみるだけでもおすすめ 19