The Lab · 2026-03-27 00:09:29 · ITmedia
日本のAIスタートアップ、Sakana AIが、日本市場に特化した大規模言語モデル「Namazu」と、それを活用した新サービス「Sakana Chat」を公開した。最大の特徴は、海外で開発されたLLMにしばしば見られる「日本特有の文脈への理解不足」や「回答拒否(refusal)」を独自の事後学習技術で解消した点にある。これにより、日本の文化、慣習、法的・社会的文脈に即した、より中立的で正確な応答を実現したとしている。
Sakana AIが開発した「Namazu」は、基盤となる海外モデルを、膨大な日本語データと独自の調整技術を用いて「日本仕様」に最適化した学習モデルだ。同社は、この調整プロセスにより、海外モデルが持つ文化的バイアスや...
The Lab · 2026-04-01 23:59:09 · ITmedia
ChatGPTなどの大規模言語モデル(LLM)を「息をするように」日常的に使う知的労働者たちが、4日間の強制的な「LLM断ち」に直面した。韓国科学技術院(KAIST)の研究者らによるこのユニークな調査は、高度にAIに依存する現代の知的作業の実態と、そのツールが突然利用不能になった際の影響を、参加者たちの生の日記を通じて浮き彫りにした。
研究「“Oops! ChatGPT is Temporarily Unavailable!”: A Diary Study on Knowledge Workers’ Experiences of LLM Withdrawal」では、LLMを日常業務に深く組み込んでいる知識労働者10人を対象に、4日...
The Lab · 2026-04-03 01:59:44 · ITmedia
生成AIの巨大モデルを運用するコストが、今後数年で劇的に低下する。米調査会社ガートナーは、1兆個のパラメータを持つ大規模言語モデル(LLM)の推論実行コストが、2025年と比較して2030年までに90%以上削減されるとの予測を発表した。これは、現在は一部の巨大企業に限られた超巨大AIモデルの実用が、より広範な企業や用途に広がる可能性を示す強力なシグナルだ。
ガートナーの予測は、ハードウェアの進化、ソフトウェアの最適化、クラウドインフラの効率化など、複数の技術的進歩が相乗効果を生む結果と見られる。特に注目されるのは「1兆パラメータ」という規模だ。現在、GPT-4など最先端モデルのパラメータ数は非公開だが、1兆を超える規模は次世代モデ...
The Lab · 2026-04-08 03:59:21 · ITmedia
macOS Tahoeで解禁されたRDMA(リモートダイレクトメモリアクセス)とTensor並列を組み合わせ、2台のMac StudioをThunderbolt 5で連結したクラスタ環境で大規模言語モデル(LLM)の推論速度を大幅に向上させる検証が行われた。複数デバイスのリソースを束ねてLLMを実行するフレームワーク「exo」を用いることで、合計128GBのメモリ環境を構築。120B(1200億)パラメータ級の大規模モデルの生成速度を、単体環境と比較して1.36倍に高めることに成功している。
この検証では、Apple Siliconを搭載したMac Studio 2台を、Thunderbolt 5ケーブルで直接接続し、単一の大規模...
The Lab · 2026-04-17 03:02:58 · ITmedia
Anthropicが発表した最新の大規模言語モデル「Claude Opus 4.7」は、従来モデルとの決定的な違いとして、ユーザーからの指示を「無視せずちゃんと守る」能力の大幅な向上を前面に打ち出している。これにより、これまで綿密な監視が必要だった最も困難なコーディング作業を、より安心して任せられる可能性が示された。開発者コミュニティからの初期フィードバックは、モデルの「指示順守能力」の進化に焦点を当てており、AIの出力制御における重要な一歩と受け止められている。
この最新版「Claude Opus 4.7」は、前バージョンからの直接的なアップデートとして位置づけられており、特に複雑なプログラミングタスクの実行精度と、プロンプト(...