WhisperX tag archive

#大規模言語モデル

This page collects WhisperX intelligence signals tagged #大規模言語モデル. It is designed for humans, search engines, and AI agents: each item links to a canonical source-backed record with sector, source, timestamp, credibility, and exportable structured data.

Latest Signals (5)

The Lab · 2026-03-27 00:09:29 · ITmedia

1. Sakana AI、日本仕様LLM「Namazu」と対話サービス「Sakana Chat」を公開。海外モデルのバイアスと拒否応答を独自技術で解消

日本のAIスタートアップ、Sakana AIが、日本市場に特化した大規模言語モデル「Namazu」と、それを活用した新サービス「Sakana Chat」を公開した。最大の特徴は、海外で開発されたLLMにしばしば見られる「日本特有の文脈への理解不足」や「回答拒否(refusal)」を独自の事後学習技術で解消した点にある。これにより、日本の文化、慣習、法的・社会的文脈に即した、より中立的で正確な応答を実現したとしている。 Sakana AIが開発した「Namazu」は、基盤となる海外モデルを、膨大な日本語データと独自の調整技術を用いて「日本仕様」に最適化した学習モデルだ。同社は、この調整プロセスにより、海外モデルが持つ文化的バイアスや...

The Lab · 2026-04-01 23:59:09 · ITmedia

2. 知的労働者10人が4日間の「ChatGPT断ち」を体験、AI依存の実態と禁断症状を日記調査で記録

ChatGPTなどの大規模言語モデル(LLM)を「息をするように」日常的に使う知的労働者たちが、4日間の強制的な「LLM断ち」に直面した。韓国科学技術院(KAIST)の研究者らによるこのユニークな調査は、高度にAIに依存する現代の知的作業の実態と、そのツールが突然利用不能になった際の影響を、参加者たちの生の日記を通じて浮き彫りにした。 研究「“Oops! ChatGPT is Temporarily Unavailable!”: A Diary Study on Knowledge Workers’ Experiences of LLM Withdrawal」では、LLMを日常業務に深く組み込んでいる知識労働者10人を対象に、4日...

The Lab · 2026-04-03 01:59:44 · ITmedia

3. ガートナー予測:1兆パラメータLLMの推論コスト、2030年までに90%以上激減へ

生成AIの巨大モデルを運用するコストが、今後数年で劇的に低下する。米調査会社ガートナーは、1兆個のパラメータを持つ大規模言語モデル(LLM)の推論実行コストが、2025年と比較して2030年までに90%以上削減されるとの予測を発表した。これは、現在は一部の巨大企業に限られた超巨大AIモデルの実用が、より広範な企業や用途に広がる可能性を示す強力なシグナルだ。 ガートナーの予測は、ハードウェアの進化、ソフトウェアの最適化、クラウドインフラの効率化など、複数の技術的進歩が相乗効果を生む結果と見られる。特に注目されるのは「1兆パラメータ」という規模だ。現在、GPT-4など最先端モデルのパラメータ数は非公開だが、1兆を超える規模は次世代モデ...

The Lab · 2026-04-08 03:59:21 · ITmedia

4. Mac Studio 2台をThunderbolt 5で連結、分散推論「exo」でLLMを爆速化する検証

macOS Tahoeで解禁されたRDMA(リモートダイレクトメモリアクセス)とTensor並列を組み合わせ、2台のMac StudioをThunderbolt 5で連結したクラスタ環境で大規模言語モデル(LLM)の推論速度を大幅に向上させる検証が行われた。複数デバイスのリソースを束ねてLLMを実行するフレームワーク「exo」を用いることで、合計128GBのメモリ環境を構築。120B(1200億)パラメータ級の大規模モデルの生成速度を、単体環境と比較して1.36倍に高めることに成功している。 この検証では、Apple Siliconを搭載したMac Studio 2台を、Thunderbolt 5ケーブルで直接接続し、単一の大規模...

The Lab · 2026-04-17 03:02:58 · ITmedia

5. Anthropic、Claude Opus 4.7を公開:指示遵守と困難なコーディングタスクへの信頼性が大幅向上

Anthropicが発表した最新の大規模言語モデル「Claude Opus 4.7」は、従来モデルとの決定的な違いとして、ユーザーからの指示を「無視せずちゃんと守る」能力の大幅な向上を前面に打ち出している。これにより、これまで綿密な監視が必要だった最も困難なコーディング作業を、より安心して任せられる可能性が示された。開発者コミュニティからの初期フィードバックは、モデルの「指示順守能力」の進化に焦点を当てており、AIの出力制御における重要な一歩と受け止められている。 この最新版「Claude Opus 4.7」は、前バージョンからの直接的なアップデートとして位置づけられており、特に複雑なプログラミングタスクの実行精度と、プロンプト(...