マイナビニュース | テクノロジー | スパコン/HPC | ヘッドライン(2016)(1ページ目)

ヘッドライン

2016年12月28日(水)

ソシオネクスト、独自スイッチSoCを搭載したARMサーバを開発

ソシオネクストは12月28日、ARM Cortex-A53を24コア搭載したマルチコアプロセッサ「SC2A11」ならびに、独自開発のCPU間高速通信技術「Socionext DDT」を採用したスイッチSoC「SC2A20」を搭載した大規模・高効率分散処理サーバを開発したと発表した。

[14:16 12/28]

2016年12月23日(金)

コンピュータアーキテクチャの話 第369回 AMDのGPUが用いているデバイスメモリの種類

GCNアーキテクチャのGPUのメモリ階層を見ると、CUには16KBの1次データキャッシュがつながり、その次に64~128KBの2次キャッシュ群がつながっているが、その間にクロスバが設けられており、どのCUとどの2次キャッシュスライスも通信できるようになっている。

[10:00 12/23]

2016年12月22日(木)

TOP500で国内1位の性能を獲得したスパコン「Oakforest-PACS」を読み解く 第3回 Omni-Pathネットワークを採用した世界最大のスパコン

Oakforest-PACSは富士通が納入したシステムで、富士通の「Primergy CX1640 M1」サーバを8208台使っている。

[07:00 12/22]

2016年12月21日(水)

SC16 - メモリテクノロジはどうなっていくのか?

Exascaleとその後のメモリはどうなっていくのかに関して、SC16において「Future of Memory Technology for Exascale and Beyond IV」と題するワークショップが行われた。このワークショップは、以前から行われており、今回は4回目であるのでIVが付いている。

[07:00 12/21]

2016年12月20日(火)

SC16 - Exascale以降のデバイスの研究状況

CMOSデバイスの微細化は限界に近づきつつあるが、デバイスの研究者は、より高性能のデバイスを作ることを諦めたわけではない。SC16において、コロンビア大学のナノ・イニシアティブのディレクタであるThomas N.Theis教授が、Beyond Exacaleの時代の新デバイスの研究開発状況について講演を行った。

[07:00 12/20]

2016年12月19日(月)

東北大、スピントロニクス素子を使った人工知能の基本動作の実証に成功

東北大学は12月19日、磁石材料から構成されるミクロなスピントロニクス素子を使った人工知能の基本動作の実証に成功したと発表した。

[17:28 12/19]

SC16 - スパコンはポストムーアの時代をどう乗り切るのか?

SC16において、「Post Moore's Era Supercomputing in 20 Years」と題するパネルディスカッションが行われた。パネリストは、東工大の松岡聡氏をはじめとする世界のトップ研究者たち6名で、モデレータはオークリッジ国立研究所のJeffrey S Vetter氏とローレンスバークレイ国立研究所のGeorge Michelogiannakis氏である。

[08:00 12/19]

ARM、HPCシステム向けソフトウェアツールのAllinea社を買収

英ARM社はこのほど、ハイパフォーマンス コンピューティング(HPC)システム向けソフトウェアツールのプロパイダであるAllinea社を買収したと発表した。

[08:00 12/19]

2016年12月16日(金)

SC16 - 京コンピュータが1位を堅持したGraph500

TOP500は、スパコンの浮動小数点演算性能を測ってランキングを行っている。浮動小数点演算の性能は重要であるが、スパコンに求められる能力はそれだけではない。大規模なグラフの処理も、色々な分野で重要になってきている。ということで、グラフを処理する性能を競うGraph500が始まった。

[14:00 12/16]

2016年12月15日(木)

SC16 - 展示会場で見た各社の最新技術

SC16は登録参加者1万1100名、出展ブースの数は349と参加者、展示ともに過去最高であったが、目立った展示は少ない感じの展示であった。このところ展示フロアに持ち込むハードウェアは減少傾向にあるが、今年は、さらにそれが進んだ感じの展示であった。

[10:00 12/15]

TOP500で国内1位の性能を獲得したスパコン「Oakforest-PACS」を読み解く 第2回 Xeon Phiの活用でメニーコアスパコンを実現

Oakforest-PACSは、「Knights Landing(KNL)」という名前で開発されてきたIntelの「Xeon Phi 7250」メニーコアプロセサを計算エンジンとして使っている。

[07:00 12/15]

2016年12月14日(水)

SC16 - Green500の1、2位はNVIDIAのP100 GPUシステム

昨年までは、TOP500はHPLで最高性能を出せる測定を行い、Green500はHPL性能は下がっても、性能/電力が改善する低めの電源電圧に変更して測定するということが行われていた。これが、今年の6月から、TOP500とGreen500のルールが変わり、両方とも同じ条件で測定することになった。

[11:00 12/14]

2016年12月12日(月)

SC16 - IBMのニューロンコンピューティングシステム「TrueNorth」

SC16において、IBM ResearchのJun Sawada氏が、神経系を模した情報処理を行う「TrueNorth」について発表を行った。

[14:50 12/12]

2016年12月09日(金)

モルフォとデンソー、次世代画像認識システム向けDNNアルゴリズムを開発

モルフォとデンソーは12月9日、共同で開発を進めてきたDeep Neural Network(DNN)による画像認識技術のアルゴリズムが、高度運転支援および自動運転技術の実現に向けた次世代の画像認識システムに応用されることが決まったことを発表した。

[18:17 12/9]

SC16 - DDNのバーストバッファソリューション「IME14K」

DataDirect Networks(DDN)は、HPC用のストレージではトップメーカーである。そのDDNの新製品が「IME14K」という商品名の、バーストバッファと呼ばれるストレージである。

[11:00 12/9]

コンピュータアーキテクチャの話 第368回 GCNアーキテクチャにおける1次データキャッシュの構造

AMDのGCNアーキテクチャのGPUは読み書き可能な16KBの容量の1次データキャッシュを持っている。NVIDIAのGPUは1次データキャッシュの位置づけが世代ごとに変り、最適化がやり難いが、GCNアーキテクチャの1次データキャッシュは読み書き可能なキャッシュという位置づけが一貫しているのは立派である。

[10:00 12/9]

2016年12月08日(木)

TOP500で国内1位の性能を獲得したスパコン「Oakforest-PACS」を読み解く 第1回 TOP500で日本国内トップの性能を達成したスパコンが稼動

京コンピュータを抜いて演算性能で国内1位となった「Oakforest-PACS」スパコンが、2016年12月1日に正式稼働し、報道陣に公開された。Oakforest-PACSスパコンは東京大学(東大)と筑波大学が共同で調達し、共同で運用するスパコンで、東大の柏キャンパスの最先端共同HPC基盤施設(JCAHPC)に設置されている。

[07:00 12/8]

2016年12月07日(水)

SC16 - ベールを少し持ち上げたNECの次世代スパコン「Aurora」

NECが「Aurora」というプロジェクト名で次世代スパコンを開発していることはすでに発表されていたが、その実体はベールに包まれていた。今回のSC16で、NECはそのベールを少し持ち上げてチラリと中身を見せた。

[09:00 12/7]

2016年12月06日(火)

SC16 - 富士通が開発を進める日本の次世代スパコン「Post-K」

SC16において、富士通の次世代テクニカルコンピューティング開発本部第一システム統括部長の清水俊幸氏がポスト京スーパーコンピュータ(スパコン)について発表を行った。清水氏は同スパコンのハードウェアの開発責任者である。

[10:00 12/6]

2016年12月02日(金)

SC16 - リブート・コンピューティングとIRDS

微細化が限界に近づき、ムーアの法則が終わりつつある状況であるので、ムーア以降の時代をどのように乗り切っていくのかは大きな問題である。このムーア以降の時代をどうするのかを検討するのが、「リブート・コンピューティング(RCI)」である。SC16にて、このRCIと新半導体ロードマップであるIRDSについてのワークショップが開始された。

[12:02 12/2]

国内最高性能のスパコン、正式運用を開始 - JCAHPC

最先端共同HPC基盤施設(JCAHPC)は12月1日、超並列クラスタ型スーパーコンピュータ(スパコン)「Oakforest-PACS」の正式運用を開始したと発表した。

[07:00 12/2]

2016年11月29日(火)

SC16 - Student Cluster Completionは中国科技大が優勝

Student Cluster Competition(SCC)は、商用電源からの電力が3120W以下で動くクラスタを作り、HPLと幾つかの課題ソフトの実行性能を競う競技である。チームメンバは学部大学生6名とコーチの先生で構成され、SC16では、世界各国から14チームが参戦した。

[09:00 11/29]

2016年11月28日(月)

SC16 - Gordon Bell賞は中国チームが獲得

SC16でのGordon Bell賞の候補論文は6件あり、そのうち3件がTOP500 1位の神威太湖之光(Sunway TaihuLight)を使った中国の論文であり、中国のスパコンアプリの開発が大きく進化したことを印象付ける結果となった。

[09:00 11/28]

2016年11月25日(金)

不足するスパコン人材をどのように確保するのか? - SC16

SC16において、Harvey Mudd CollegeのMaria Klawe学長が、スーパーコンピューティングへの多様な人材を取り入れるやり方について招待講演を行った。スーパーコンピューティングに関する人材は大幅に不足しており、それを埋めるためには、どうすれば良いだろうか。

[11:00 11/25]

コンピュータアーキテクチャの話 第367回 GCNの性能を活かすのに必要なコンピュートユニット内蔵メモリ

GPUは多数の演算器を搭載しているが、それらの演算器にデータを供給し、演算結果を格納するメモリが無ければ演算を続けることはできない。この点でコンピュートユニットに内蔵されているローカルデータシェアというメモリをうまく活用することが重要である。

[10:00 11/25]

2016年11月22日(火)

日立、新型半導体コンピューターの計算規模を10倍にする技術を開発

日立製作所(日立)は11月22日、独自に開発している新型半導体コンピューター向けに、半導体デバイスのサイズを変えずに計算規模を10倍に向上する技術を開発したと発表した。

[14:09 11/22]

2016年11月18日(金)

スパコン「京」、スパコン性能ランキング「Graph500」で4期連続で1位を獲得

富士通などで構成される国際共同研究グループは11月18日、スパコンの国際学会「SC16」において公開された、ビッグデータ処理(大規模グラフ解析)に関するスパコンの国際的な性能ランキング「Graph500」にて、スパコン「京」が2016年6月に続き4期連続で第1位を獲得したと発表した。

[16:16 11/18]

理研と東工大の共同研究チーム、SC16の最優秀論文賞を受賞 - SC16

理研と東工は11月18日、スパコンに関する国際会議「SC16」において、共同研究チームの投稿した論文が投稿総数442報の中から最優秀論文賞を受賞したと発表した。

[15:50 11/18]

スパコン「京」、実アプリ向け処理性能指標ランキングで世界1位を獲得

理化学研究所(理研)と富士通は11月16日、産業利用など実際のアプリケーションで用いられる共役勾配法の処理速度の国際的なスパコン性能ランキング「HPCG」の2016年11月版において世界第1位を獲得したと発表した。

[13:46 11/18]

米国のエクサスパコンプロジェクトがいよいよ始動 - SC16

スーパーコンピュータ最大の学会である「SC16」において、米国のExascale Computing Project(ECP)が開始されることが発表された。

[13:27 11/18]

2016年11月17日(木)

早大とNextremer、量子アニーリングを用いた人工知能の研究を開始

早稲田大学(早大)高等研究所とNextremerは11月16日、量子アニーリングを用いた人工知能ソフトウェア開発を目的とした共同研究契約を締結したと発表した。

[06:00 11/17]

2016年11月16日(水)

NVIDIAのPascal GPU「P100」を搭載したシステムがGreen500の1位と2位を獲得

スーパーコンピュータ(スパコン)最大の学会である「SC16」に併せて、スパコンのエネルギー効率(性能/電力)ランキング「Green500」が発表された。

[09:00 11/16]

2016年11月15日(火)

Xilinx、機械学習の推論の演算効率を向上するテクノロジースイートを発表

Xilinxは11月14日(米国時間)、世界規模のクラウドサービスプロバイダがアクセラレーションプラットフォームの迅速な開発/展開を可能にするテクノロジスイートとして、FPGAをベースにした「リコンフィギュレーション可能アクセラレーションスタック」を発表した。

[18:52 11/15]

JCAHPCのスパコン「Oakforest-PACS」、TOP500で国内最高性能を達成

最先端共同HPC基盤施設(JCAHPC)は11月14日、スーパーコンピュータ(スパコン)「Oakforest-PACS」が、2016年11月のスパコン性能ランキング「TOP500リスト」において、日本勢のシステムとしてはトップになったことを発表した。

[17:20 11/15]

2016年11月の「TOP500」 - 日本勢トップは東大/筑波大の「Oakforest-PACS」

11月14日(米国時間)、スーパーコンピュータ(スパコン)の処理性能ランキングである「TOP500」の2016年11月版が発表された。それによると、1位は前回同様、中国の「Sunway TaihuLight」となった。また、日本勢のトップは、これまでの理研の「京」ではなく、東大と筑波大による「Oakforest-PACS」となったという。

[16:55 11/15]

デンソーウェーブ、「ロボットは東大に入れるか」PJ用代筆ロボットを開発

デンソーウェーブは11月14日、同日開催された人工知能プロジェクト「ロボットは東大に入れるか」の成果報告会において、実際に筆を持ち、人工知能に変わって、解答用紙に答えを記述する解答代筆ロボットアーム「東ロボ手くん」を開発したことを明らかにした。

[07:30 11/15]

2016年11月14日(月)

NIIの人工知能、センター試験模試で全国平均を上回る成果を達成

国立情報学研究所(NII)は11月14日、2016年度の研究成果として、ベネッセが実施したマークシート方式の大学入試センター試験模試にて、5教科8科目の合計で525点(全国平均454.8点)を獲得したと発表した。

[18:05 11/14]

スーパーコンピュータ分野最大の学会「SC16」が開幕

スーパーコンピュータ最大の学会である「SC16」が開幕した。会場は、米国ユタ州ソルトレークシティのSalt Palace Convention Centerである。今回のSC16での興味は、6件のゴードンベル賞候補論文の半分の3件が中国のTaihu Lightを使った論文であり、中国が初めてゴードンベル賞を受賞するのか、日、米、欧からの3件の論文が受賞するかである。

[11:56 11/14]

2016年11月11日(金)

コンピュータアーキテクチャの話 第366回 GCNのスカラユニットとベクトル演算

GCNのスカラユニットは、SIMDユニットの条件分岐などの制御を行う。スカラユニットは8KB(2Kエントリ)のレジスタファイルを持ち、このレジスタファイルは、4つのSIMDユニットに512エントリずつ割り当てられている。

[10:00 11/11]

2016年11月07日(月)

詳細設計の段階に入った日本の次世代フラッグシップスパコン「ポスト京」

筑波大学で開催された第8回「学際計算科学による新たな知の発見・統合・創出」シンポジウムにおいて、ポスト京スーパーコンピュータ(スパコン)開発するフラグシップ2020プロジェクトのリーダーである理研AICSの石川裕氏が、ポスト京の開発状況を発表した。

[13:54 11/7]

2016年11月02日(水)

筑波大学が開発を進める第10世代スパコンの実験機「Pre-PACS-X」

筑波大学で開催された第8回「学際計算科学による新たな知の発見・統合・創出」シンポジウムにおいて、同大 計算科学研究センターの朴泰祐教授が、筑波大が進めている次期PACSスーパーコンピュータ(スパコン)の開発について発表を行った。

[13:01 11/2]

2016年10月28日(金)

コンピュータアーキテクチャの話 第365回 GCNのブロックダイヤグラムを読む

NVIDIAのCUDAコアは整数演算を行うこともできるが、AMDのSIMDユニットに含まれているベクタALUは浮動小数点の積和演算だけで、整数演算機能は持っていない。GCNでは、整数演算は、SIMDユニットの左隣に書かれているスカラユニットで実行するという造りになっている。

[10:00 10/28]

2016年10月24日(月)

巨人Intelに挑め! – [番外編]東工大のスパコン「TSUBAME」が生まれた日 第3回 TSUBAMEの飛翔

ある日、吉川氏は思いもよらない人物から電話を受ける。電話の主は、AMDのCPUを使用したスパコンを作りたいと告げる。

[10:00 10/24]

高品質映像のみならず演算性能にも期待 - GPUの活用が進む産業分野

NVIDIAは10月18日、都内で7月に発表したQuadro Pascalプラットフォーム「Quadro P6000/P5000」の国内販売スタートに併せて産業分野に向けた取り組みに関する説明会を開催し、VRやデザインが迎える新たなステージの紹介を行った。

[09:00 10/24]

2016年10月21日(金)

ピーク演算性能は京の2.5倍 - 東大/筑波大のスパコン「Oakforest PACS」

2011年6月にTop500で世界一になった京コンピュータを超す性能を実現するスパコンを東京大学と筑波大学が共同で導入しようとしている。2016年12月に稼働する計画となっており、そのピーク性能は25PFlopsが予定されている。

[11:00 10/21]

2016年10月17日(月)

巨人Intelに挑め! – [番外編]東工大のスパコン「TSUBAME」が生まれた日 第2回 2000年初頭のスパコン事情

ある日、吉川氏は思いもよらない人物から電話を受ける。電話の主は、AMDのCPUを使用したスパコンを作りたいと告げる。

[10:00 10/17]

2016年10月14日(金)

三菱電機、組込機器向けディープラーニング高速学習アルゴリズムを開発

三菱電機は10月14日、車載機器や産業用ロボットなどの組込機器上で実現する推論処理に必要な事前学習時間とメモリ量を短縮・削減した「ディープラーニングの高速学習アルゴリズム」を開発したと発表した。

[16:13 10/14]

コンピュータアーキテクチャの話 第364回 AMDの新GPUアーキテクチャ「GCN」

AMDは、2012年に「Graphics Core Next(GCN)」という新GPUアーキテクチャに切り替えた。GCNは、HD7000シリーズのハイエンドのHD7700~HD7900 GPUから実装が始まっている。

[10:00 10/14]

スパコンの活用で変わる創薬の世界 - VINAS Users Conference 2016

ヴァイナスは10月13日、プライベートカンファレンス「VINAS Users Conference 2016」を開催。基調講演として、京都大学大学院医学研究科の奥野恭史 教授が「スーパーコンピュータが拓く創薬計算の未来」と題し、京を用いた創薬計算ならびにポスト「京」に向けた取り組みなどを語った。

[08:00 10/14]

2016年10月13日(木)

GTC Japan 2016 - NVIDIAの推論エンジン「TensorRT」

GTC Japan 2016において、NVIDIAの森野氏が、同社の推論エンジン「TensorRT」について発表を行った。TensorRTターゲットとしているのは、ビデオ画像のストリーミング識別、自動運転車のリアルタイム画像認識、巨大データセンタでのWebからの大量の認識要求を捌くなどのレーテンシとスループットを要求される用途である。

[09:00 10/13]

2016年10月12日(水)

Huawei、カリフォルニア大学バークレー校とAIの基礎研究で提携

Huaweiは10月11日(中国時間)、 米カリフォルニア大学バークレー校と人工知能(AI)の基礎研究における戦略提携に合意したと発表した。

[16:52 10/12]

富士通研とOIST、脳科学の知見を活用した強化学習アルゴリズムの研究を開始

富士通研究所と沖縄科学技術大学院大学(OIST)は10月12日、脳科学の最新の知見を活用し、人間のように応用力のある強化学習アルゴリズムを開発する共同研究を開始すると発表した。

[16:05 10/12]

GTC Japan 2016 - Pascalのユニファイドメモリ

GTC Japan 2016において、NVIDIAの成瀬氏がPascalの「ユニファイドメモリ」について発表を行った。筆者は、Pascalで行われた一番重要な機能拡張は、このデマンドページングによるユニファイドメモリではないかと思っている。

[09:00 10/12]

スパコンの知識がなくても利用できるようになるクラウドサービスが登場

エクストリームデザインは10月11日、パブリッククラウド上に仮想スーパーコンピュータ(スパコン)を展開し、その運用監視、効果的なシステム利用のための動的構成変更コンサルティングをすべて無人化するサービス「XTREME DNA(エクストリーム ディーエヌエー)」(開発コード名)を2016年11月下旬より提供すると発表した。

[09:00 10/12]

2016年10月07日(金)

GTC Japan 2016はAI、AI、AI

ヒルトン東京お台場で開催された、NVIDIAの「GTC Japan 2016」では、Jen-Hsun Huang CEOが登壇したが、その内容は、AI、AI、AIであった。

[07:00 10/7]

2016年10月06日(木)

単なるGPUベンダからAIカンパニーへと生まれ変わるNVIDIA - GTC Japan 2016

NVIDIAは10月5日、都内で開発者向けイベント「GPU Technology Conference Japan 2016(GTC Japan 2016)」を開催、基調講演にNVIDIAの共同創業者 兼 CEOであるJen-Hsun Huang氏が登壇し、NVIDIAが「AIカンパニー」として成長を今後も続けていくことをさまざまな角度から語った。

[09:00 10/6]

2016年10月05日(水)

ファナックとNVIDIA、未来の工場実現に向けたAIプラットフォームで協業

ファナックとNVIDIAは10月5日、同日開催されたGTC Japan 2016」において、ファナックのプラットフォーム「FIELD system」における人工知能(AI)の実装に関する協業を開始することを明らかにした。

[17:44 10/5]

CEVA、ディープラーニング/AI向けDSPベースプラットフォームを発表

CEVAは9月27日(米国時間)、ディープラーニングや人工知能(AI)機能を省電力な組込型システムに搭載するための次世代DSPベース・ソリューションを発表した。

[09:00 10/5]

2016年10月03日(月)

Hot Chips 28 - プロセサの新たな世界を切り開くメニーコアセッション

Hot Chips 28におけるメニーコアのセッションでは、プリンストン大学の「Piton」と呼ぶ25コアのプロセサと、カリフォルニア州立大学デービス校(U.C.Davis)の1000コアの「KiloCore」の発表が行われた。

[11:00 10/3]

巨人Intelに挑め! – [番外編]東工大のスパコン「TSUBAME」が生まれた日 第1回 東工大松岡教授との出会いとスパコンでの経験

ある日、吉川氏は思いもよらない人物から電話を受ける。電話の主は、AMDのCPUを使用したスパコンを作りたいと告げる。

[10:00 10/3]

2016年09月30日(金)

コンピュータアーキテクチャの話 第363回 VLIW命令をSIMD実行することで効率を高めたATI

このような計算を効率よく実行するためにATIが用いたのがVLIW命令のSIMD実行という方法である。

[13:00 9/30]

Hot Chips 28 - InVisageの量子ドットを用いたイメージセンサ

Hot Chips 28において、InVisageという会社が、量子ドットを使うイメージセンサを発表した。量子ドットを使うことにより、近赤外光に対する感度が上がり、ダイナミックレンジも改善されるという。

[11:00 9/30]

2016年09月29日(木)

Hot Chips 28 - Sentonsの超音波タッチスクリーンセンサ

現在、携帯電話などのタッチスクリーンは、マトリクス上に透明電極があり、指を近づけることにより、透明電極との間の静電容量が変ることで、タッチ位置を検出している。これに対してSentonsは、Hot Chips 28において、超音波を使うタッチセンサを発表した。

[11:00 9/29]

2016年09月28日(水)

Hot Chips 28 - TSMCが活用を進める新世代の半導体パッケージ技術

近年、複数チップをシリコンインタポーザに載せて相互接続した製品が出てきているが、コストが高いのが難点である。そのため、より安価かつ高密度配線を実現できるパッケージ技術に注目が集まっている。

[11:00 9/28]

2016年09月27日(火)

Hot Chips 28-哲学者の名を冠したDeephiのニューラルネットアクセラレータ

Hot Chips 28において、「Deephi Tech」という会社のSong Yao CEOが、同社のニューラルネット処理のアクセラレータシステムについて発表した。なお、Deephiという社名は、Deep LearningのDeeと、Deep Learningの基本となる「哲学(Philosophy)」から名付けられている。

[11:00 9/27]

2016年09月23日(金)

Hot Chips 28 - Baiduのソフトウェア定義のSQLアクセラレータ

Hot Chips 28において、Baidu(百度)のJian Ouyang氏がソフトウェア定義のSQLアクセラレータについて発表を行った。ビジネスの規模が拡大し、データ量が増加するのに加えて、データを解析するアルゴリズムも複雑になるので、ビッグデータの処理に必要となる計算パワーは加速度的に伸びて行くという。このビッグデータの処理を効率的に行うため、Baiduはソフトウェア定義のアクセラレータを開発した。

[11:00 9/23]

2016年09月21日(水)

Hot Chips 28 - DB処理機能を組み込んだOracleの「SPARC M7プロセサ」

Hot Chips 28においてOracleは、これまでソフトウェアで実現されていたデータベースの処理機能をハードウェア化し、Software in Siliconと称する「SPARC M7」プロセサを発表した。

[11:00 9/21]

2016年09月20日(火)

Hot Chips 28 - Inside Skylakeと題したIntelの発表

Hot Chips 28において、IntelのJack Doweck氏とWen-fu Kao氏が「Inside Skylake」と題した発表を行った。Skylakeはすでに製品が出回っており、IDFなどでも発表セッションがあり、その情報は旧聞とも言えるが、Hot Chips 28における発表は、良くまとまっており、技術的にも詳しいので、紹介する。

[10:30 9/20]

2016年09月16日(金)

Hot Chips 28 - 自動車に的を絞ったNVIDIAの次世代Tegra「Parker」

NVIDIAはHot Chips 28において、次世代のTegraプロセサである「Parker」の発表を行った。Parkerは開発コードネームで、正式発表の際には「Tegra TP1」というような名前になると思われるが、現状では、まだ、発表されていないので、ここではParkerを使うことにする。

[11:00 9/16]

コンピュータアーキテクチャの話 第362回 ATIを買収してGPUを手に入れたAMD

ここまで、主にNVIDIAのGPUの作りを見てきたが、1つのメーカーだけを取り上げるのは、不公平であるので、他のメーカーのGPUについても分かる範囲で、紹介して行こう。まず、最初は、RadeonやFireProブランドで、市場でNVIDIAと激しい戦いを繰り広げているAMDのGPUを取り上げる。

[10:00 9/16]

2016年09月15日(木)

Hot Chips 28 - コグニティブの時代に対応する新時代CPU「POWER9」

Hot Chips 28において、IBMは「POWER9」プロセサを発表した。POWER9のコア数は前世代のPOWER8と同じであるが、処理能力は大きく向上している。

[08:00 9/15]

2016年09月14日(水)

Hot Chips 28 - AMDの次世代コア「Zen」

Hot Chips 28において、AMDは次世代コア「Zen」を発表した。発表者は、シニアフェローのMike Clark氏である。Zenの最大の売りは、現在のExcavatorコアと比較して40%も高いIPCである。つまり、同じクロックで40%高い性能を発揮するプロセサコアであるということである。

[14:00 9/14]

2016年09月13日(火)

Hot Chips 28 - 3年かけて開発されたSamsungのプロセサコア「Exynos M1」

Hot Chips 28において、Samsung Electronicsは自社開発の「Exynos M1」プロセサを発表した。Samsungは自社スマートフォン(スマホ)「Galaxy S6」までは、ARMのCortex-A57とA53コアを搭載していたが、最新世代の「Galaxy S7」の一部モデルから、Exynos M1とA53コアという構成に変更した。

[11:00 9/13]

2016年09月12日(月)

Hot Chips 28 - 3サイズのコアでエネルギーを減らすMediaTekのHelio X20

Hot Chips 28において、MediaTekのDavid Lee氏が同社のスマートフォン(スマホ)向けSoC「Helio X20」の発表を行った。

[12:15 9/12]

2016年09月09日(金)

Hot Chips 28 - シャンパンタワーを載せて走れるサスペンション

Hot Chips 28において、Levant Powerの創立者でCEOのShakeel Avadhany氏が同社の「Super Active Suspension」を発表した。実は、あまり注目していない発表だったのだが、しかし、これが面白い発表であった。

[07:00 9/9]

2016年09月08日(木)

Hot Chips 28 - HPCへの進出を目論むARMのベクトル命令拡張(後編)

ARMのSVEでは、エラーがあるアドレスリストの場合でも、エラーの箇所を見つけるのが簡単であり、オンデマンドでメモリを割り当てて処理を続けたりすることができる。

[08:00 9/8]

2016年09月07日(水)

Hot Chips 28 - HPCへの進出を目論むARMのベクトル命令拡張(前編)

2016年6月に、フランクフルトで開催されたISC 2016において、富士通はポスト京コンピュータのプロセサをARMアーキテクチャにすることを発表した。しかし、この時はHPC向けのアーキテクチャの中身は発表されず、8月のHot Chipsで発表するというアナウンスだけであった。その待望のARMv8-AアーキテクチャのHPC向け拡張が発表された。

[08:00 9/7]

2016年09月06日(火)

Hot Chips 28 - NVIDIAのPascal GPUの実装とNVLink(後編)

NVIDIAは、PascalからNVLinkと呼ぶ独自の高速リンクを装備するようになった。NVLinkは物理的には、ペアの信号線を使う差動信号で20Gbit/sの伝送を行う。この伝送速度は、PCI Express 3.0の2.5倍である。

[07:00 9/6]

2016年09月05日(月)

Hot Chips 28 - NVIDIAのPascal GPUの実装とNVLink(前編)

Hot Chips 28において、NVIDIAのJohn Danskin氏とDenis Foley氏が同社の最新世代GPU「Pascal」の発表を行った。

[07:00 9/5]

2016年09月02日(金)

コンピュータアーキテクチャの話 第361回 仮想化で1つのGPUを複数ユーザで活用する

初期のコンピュータは非常に高価であったので、各ユーザが10msずつプロセサを使い、次々とユーザを切り替えるTime Sharing System(TSS)が開発された。その歴史は50年以上あり、今ではPCでも一般的に用いられるようになり、GPUでの活用へと発展を遂げている。

[10:00 9/2]

HoloLensのために独自開発の専用チップ「HPU」を開発したMS - Hot Chips 28

Hot Chips 28において、MicrosoftのNick Baker氏が「HoloLens」に関する基調講演を行った。HoloLensはAR活用デバイスだが、独自開発「HPU」というチップとAtom SoCの組み合わせで動作する。

[08:00 9/2]

2016年08月30日(火)

Hot Chips 28 - 冒頭を飾った注目の「ARM Bifrost GPU」の発表

今年の「Hot Chips 28」の冒頭を飾ったのは、ARMの「Bifrost GPU」の発表である。学会での論文発表のプログラムは、最初に興味深い発表を持ってきて、朝から参加者が多くなるようにするというのが一般的である。ARMのBifrostの発表がトップバッターに選ばれたというのは偶然ではなく、多くの参加者が聞きたがる良い論文と評価されたからであろう。

[10:00 8/30]

2016年08月25日(木)

IntelのKNL(Knights Landing)の性能は? - ISC 2016 第4回 まだまだ続くコア数の増加とFlopsの向上

アルゴンヌ国立研究所のNekboneというアプリケーションでは、KNLでは0.38msで実行できたジョブが、E5-2699 v3デュアルコアの36コア、2.3GHzクロックのシステムでは1.22ms掛かり、KNLは4.6倍の性能である。

[10:00 8/25]

NVIDIA、自動運転車向けSoC「Parker」を正式に発表

NVIDIAは8月22日(米国時間)、Hot Chipsカンファレンスにおいて、自動運転車やデジタル・コクピットなどの自動車用アプリケーションに向けたSoC「Parker」を発表した。

[08:00 8/25]

2016年08月24日(水)

IntelのKNL(Knights Landing)の性能は? - ISC 2016 第3回 KNLの性能はどうなったのか?

この基調講演で、一番、興味深いのは、それでKNLの性能はどうなったのか? という点である。

[10:00 8/24]

2016年08月23日(火)

IntelのKNL(Knights Landing)の性能は? - ISC 2016 第2回 Knights Landingの構造を知る

Knights Landing(KNL)は、メインラインのIAプロセサと命令互換を実現し、自分でOSをブートして走らせられる最初のXeon Phiプロセサである。そして、前世代のKNC(Knights Corner)と比較してスカラ性能もベクトル性能も大きく改善している。

[10:00 8/23]

2016年08月22日(月)

GPUやCPUなどの最新の話題が目白押し - Hot Chips 28が開幕

デジタルデータ処理関係のコマーシャルLSIの発表の場としては最高のステータスを持つ「Hot Chips 28」が開幕した。会期は8月21日(日)から8月23日の3日間であるが、初日の8月21日はチュートリアルで、午前は次世代メモリのチュートリアルでHBMを製造しているSamsungやSK Hynix、HBMを使っているXilinxやAMDからの講義が行われる。

[11:47 8/22]

IntelのKNL(Knights Landing)の性能は? - ISC 2016 第1回 スパコンの性能向上を支えるコア数の増加

ISC 2016の本会議が終わった翌日は、会場を近くのMarriottホテルに移し、20余りのワークショップが開催されるワークショップデイとなる。筆者は、2015年に続いて「IXPUG」のワークショップに参加した。IXPUGはその名の通り、Xeon Phiを使うHPCユーザのユーザ会で、Intelからの発表と、会員からの技術発表が行われた。

[10:00 8/22]

2016年08月14日(日)

トヨタ、ミシガン大学と人工知能研究で連携 - 4年間で2200万ドルを投資

トヨタ自動車の米国での人工知能技術の研究・開発を行う拠点「Toyota Research Institute(TRI)」は8月10日(米国時間)、人工知能関連の研究でミシガン大学と連携すると発表した。

[06:00 8/14]

2016年08月12日(金)

コンピュータアーキテクチャの話 第360回 CPUとGPUで処理を分担する場合のメモリのコピー手法

CPUとGPUで処理を分担する場合は、CPUのメインメモリのデータをGPUのデバイスメモリにコピーする、あるいはその逆のデータのコピーが必要になる。

[10:00 8/12]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第10回 バンクコンフリクトを避けるには?

バンクコンフリクトを避けるにはどうすれば良いか? それは意外と簡単で、各行に余計な要素を1つ付け加えてやれば良い。

[08:00 8/12]

2016年08月10日(水)

国家をあげて脳研究を推進する米国のBRAIN Initiative - ISC 2016

「Brain Initiative」に沿って進められている米国の脳研究の状況について、ISC 2016において、アルゴンヌ国立研究所のRick Stevens氏が発表を行った。

[09:00 8/10]

2016年08月09日(火)

NASAが進める量子コンピューティング研究 - ISC 2016

ISC 2016において、NASA Ames Research CenterのRupak Biswas氏が、NASAで行っている量子コンピューティングの研究について発表を行った。

[11:00 8/9]

理研、「京」と最新の気象レーダによるゲリラ豪雨の予測手法を開発

理化学研究所(理研)は8月9日、スーパーコンピュータ「京」と最新鋭気象レーダを生かした「ゲリラ豪雨予測手法」を開発したと発表した。

[10:00 8/9]

2016年08月05日(金)

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第9回 シェアードメモリ中での転置で、連続アドレスへの書き込みを実現

行列全体を2次元のタイル(例えば32×32のサイズ)に分割して考えて、1つタイルをSMに内蔵されている高速アクセスができるローカルなメモリに格納する。このメモリに格納されたタイルの中の要素を列方向に読み、行方向に書き出すのは高速で実行できる。GPUでは、プログラマがアクセスを制御でき、ローカルで高速にアクセスできるメモリとしてシェアードメモリが設けられている。

[08:00 8/5]

2016年08月03日(水)

ディープラーニングで写真の内容を理解する - ISC 2016

ISC 2016において、独DFKIのDamian Borth氏が、ディープラーニングを使って、写真から形容詞と名詞のペアのクラス分けを行うという発表を行った。

[08:00 8/3]

2016年08月02日(火)

人間の脳の理解を目指す欧州の研究プロジェクト - ISC 2016

EUが取り組んでいる「Human Brain Project」は、人間の脳を多角的に研究し、その構造や働きに迫ろうとするプロジェクトであり、この分野では世界の最先端の研究と言ってよい。そのHuman Brain Projectの概要がISC 2016にて語られた。

[09:00 8/2]

2016年07月29日(金)

コンピュータアーキテクチャの話 第359回 GPUプログラミングを難しくするCPUとGPUのメモリの分散

CPUとGPUのメモリが分離されていることが、GPUプログラミングを難しく、取っき難いものとしている。このため、GPUメーカは両者のメモリが統一された共通のメモリであるように見せようとしている。

[13:00 7/29]

IDCF、高性能GPUコンピューティングをクラウドで提供するサービスを発表

IDCフロンティア(IDCF)は7月28日、ディープラーニングを容易に実現するGPUを搭載した高性能GPUコンピューティングを、クラウドサービスとして提供すると発表した。利用料金は現在のところ未定で、提供開始は2016年10~12月を予定している。

[10:52 7/29]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第8回 行列の転置では書き込みは飛び飛びアドレスになる

行列の転置の場合、読み込みを連続アドレスとすると、書き込みは飛び飛びのアドレスになってしまいそれぞれのアクセスが異なるキャッシュラインとなってしまうことは避けられないように思われるが、本当にそうであろうか?

[08:00 7/29]

2016年07月25日(月)

なぜディープラーニングにはHPCが必要なのか - ISC 2016

ISC 2016においてドイツのフラウンフォーファー研究所のJanis Keuper氏が、「Deep Learning goes HPC」と題して発表を行った。ディープラーニングの処理とその並列化を理解する上で分かりやすいと思うので紹介する。

[13:16 7/25]

Green500のリストが正式に発表 - 測定方法の変化を読み解く

スパコンをLINPACK性能順にランキングするのがTOP500であるが、エネルギー効率(性能/電力)でランキングするのがGreen500である。Green500リストであるが、暫定的な上位11システムのリストは6月20日にISC 2016の会場で発表されたが、正式なフルリストはこの時には発表されなかった。そのフルリストが、やっと7月22日に発表された。

[12:19 7/25]

2016年07月22日(金)

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第7回 スレッドのメモリ読み出し要求の仕組みを知る

NVIDIAのGPUは32スレッドのワープ単位で命令を実行する。例えば、LD.E R2,[R6]という命令はR6に格納されているアドレスのメモリを読み出し、その値をR2に格納するという命令である。R6レジスタに格納されている値であるが、スレッドごとに独立のR6レジスタがあるので、各スレッドのR6レジスタにどのような値が入っているかはケースバイケースである。

[11:00 7/22]

2016年07月21日(木)

理研など、「京」で火星大気中の"ダストデビル"を大量に再現

理化学研究所(理研)などは7月20日、スーパーコンピュータ「京」を用いた超高解像度シミュレーションにより、火星大気中の「塵旋風(じんせんぷう)」を大量に再現し、その大きさや強さの統計的性質を明らかにしたと発表した。

[11:25 7/21]

2016年07月15日(金)

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第6回 メモリバンド幅の解析を実行し、さらに並列度を上げる

gpuTranspose2カーネルはメモリバンド幅が制約になっているようであると指摘されているので、メモリバンド幅の解析を実行する。

[11:00 7/15]

コンピュータアーキテクチャの話 第358回 HPCにおけるCPU-GPU間のデータのやり取り

スパコンのように大規模なコンピュータでは、CPUに何台かのGPUを接続したものを計算ノードと呼び、これらをInfiniBandなどの高速のネットワークで接続するという構成をとるのが一般的である。

[10:00 7/15]

2016年07月13日(水)

日本のスパコン「京」、スパコン性能ランキング「Graph500」で3期連続で1位

理研が保有するスパコン「京」がビッグデータ処理の世界的なランキング「Graph500」において、1位を獲得した。これにより京は3期連続で世界1位を獲得したこととなる。

[20:11 7/13]

2016年07月08日(金)

HPCが人工知能の進化を加速させる - Baiduが語ったHPCとAIの関係性 第4回 今後、AI活用はどこに向かうのか

今後のAIであるが、短期的にはAI担当のVPを雇い、AI機能を全社的に利用できるようにするとかして、AIの利用を現在のビジネスにちりばめる程度であるが、長期的には、より深く、AIをビジネスに組み込んでいくことが必要になる。また、AIを使った新しいビジネス戦略が必要になる。

[08:30 7/8]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第5回 グリッドを大きくする方法

NVVPはグリッドが小さすぎると言っている。これは並列度が低いという指摘である。並列度が低いと、飛行中のC5が少なく、バンド幅を有効に利用できない。どのようにすればグリッドを大きくできるのであろうか?

[08:00 7/8]

ISC 2016 - Green500の上位を独占したMIMDメニーコア 第5回 太湖之光システムの並列プログラム環境はOpenACC

太湖之光システムは、メニーコアプロセサを使い、1000万を超えるコアを並列に動かすためのプログラミング環境が必要となる。太湖之光システムでは、基本的にOpenACCを並列プログラム環境として使っている。

[08:00 7/8]

2016年07月07日(木)

100PFlops時代到来 スターリング教授が語った2016年のHPC - ISC 2016

ISC 2016では、インディアナ大学のThomas Sterling(トーマス・スターリング)教授が、最終日の閉会の辞の前に締めの基調講演を行うのが恒例となっている。2016年のテーマはTaihuLightの出現による100PFlops時代の到来である。

[11:00 7/7]

HPCが人工知能の進化を加速させる - Baiduが語ったHPCとAIの関係性 第3回 ディープラーニングに第2のトレンドが到来

Baidu Speechでの具体的な性能改善としては、入力データを読み込むのに必要な時間は54nsで、これは全体の0.2%程度の時間で済む。しかし、ニューロンの各入力の重みは数が多いので、これを読み込むには全体の8%の20μsを必要とする。そして、入力データと重みを掛けて和を取るという計算部分が全体の15%の3.5μs掛かる。

[08:30 7/7]

ISC 2016 - Green500の上位を独占したMIMDメニーコア 第4回 1000万コアを超える巨大システム「太湖之光」

太湖之光システムは、2個のSW 26010を搭載するカード、4枚のカードを搭載するボード、32枚のボードを収容するキャビネット、4台のキャビネットを収容する筐体という階層になっている。この筐体を40台並べて、システムを構成している。

[08:00 7/7]

2016年07月06日(水)

ポスト京スパコンはARMアーキテクチャを採用 - ISC 2016

ISC 2016において、京コンピュータの後継となる次期スパコンと重点課題アプリケーションを開発するフラグシップ2020プロジェクトのプロジェクトリーダーである理研 AICSの石川裕氏が、ポスト京スパコンについての講演を行った。

[09:00 7/6]

HPCが人工知能の進化を加速させる - Baiduが語ったHPCとAIの関係性 第2回 精度の向上がゲームチェンジを引き起こす

音声認識では、データ量が精度に大きな影響を持つため、Baiduでは膨大な学習データを集めている。過去の研究では80~2000時間のスピーチデータを使っていたが、BaiduのDeep Speechでは4万5000時間とけた違いのスピーチデータを集めて学習を行っている。

[08:30 7/6]

ISC 2016 - Green500の上位を独占したMIMDメニーコア 第3回 TOP500で93PFlopsを達成した太湖之光システムのプロセサ「SW 26010」

太湖之光システムはSW 26010というプロセサを使っている。SWはSunwayの略と考えられる。SunwayプロセサはShenweiと書かれることもあり、中国語では神威と書かれる場合と申威と書かれることもあるようである。

[08:00 7/6]

2016年07月05日(火)

Student Cluster Competition(SCC)は南アフリカのCHPCが優勝 - ISC 2016

6人の学生がチームを作り、3kWという消費電力の範囲で、アプリケーションの実行性能や、HPCに関する知識などを競う「Student Cluster Competition(SCC)」は、HPC分野では人気の高い競技である。今回のISC 2016で開催されたSCCには12チームが参加し、さまざまな課題アプリで性能を競い合った。

[12:31 7/5]

HPCが人工知能の進化を加速させる - Baiduが語ったHPCとAIの関係性 第1回 人工知能をスーパーチャージするHPC

ISC 2016で最初の基調講演を行ったのは、Baidu(百度)のChief ScientistのAndrew Ng氏である。Ng氏は、スタンフォード大学の准教授も務める人工知能関係では、有名な研究者であり、基調講演のタイトルは"How HPC is supercharging AI"というものである。

[08:30 7/5]

ISC 2016 - Green500の上位を独占したMIMDメニーコア 第2回 28nmプロセスで1024個のコアを集積するPEZY-SC

菖蒲と皐月にアクセラレータとして使用されているPEZY-SCnpプロセサは、日本のPEZY Computingが開発したメニーコアプロセサで、28nmプロセスで製造され、1024個のコアを集積する。

[08:00 7/5]

2016年07月04日(月)

ISC 2016 - Green500の上位を独占したMIMDメニーコア 第1回 Green500のトップ3を独占したMIMDメニーコア

TOP500にランキングされたスパコンを性能/消費電力の順にランキングするのが「Green500」である。1MWの消費電力のシステムは、年間の電気代が100万ドル程度かかるため、性能だけでランキングするTOP500と並んで、性能/電力でランキングするGreen500が重視されてきている。

[12:44 7/4]

2016年07月01日(金)

ISC 2016 - 中国が大躍進 第47回TOP500ハイライト

ドイツのフランクフルトで開催されたISC 2016において、第47回のTOP500リストが発表された。そして、上位システムの表彰に続いて、例年のように主催者の1人であるEric Strohmaier氏のTOP500ハイライトの説明が行われた。

[16:19 7/1]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第4回 プロファイラの活用で、性能改善を図る

NVIDIAはNVVPというプロファイラを提供している。各種の事象のタイムラインや問題点を解析した結果などが表示され、性能の悪い部分を見つけ出して、改良するには便利なツールとなっている。

[11:56 7/1]

コンピュータアーキテクチャの話 第357回 CPUとGPUの通信

AMDのAPUのようにCPUとGPUがワンチップに集積され、両者が同一のメモリをアクセスする製品は別であるが、CPUにGPUカードを接続して使う場合は、CPUのPCI ExpressポートにGPUカードを接続することになる。科学技術計算では、入力データも処理結果の出力データも量が多いという場合が多く、PCIバスのバンド幅が性能リミットになるというケースも多い。

[10:00 7/1]

2016年06月24日(金)

【特別企画】HPCとビッグデータの最前線《スケールアウト ソリューション フォーラム 2016》レポート

日本ヒューレット・パッカードは、ハイパフォーマンスコンピューティング(HPC)、ビッグデータ、ディープラーニング、IoTの最前線を紹介する「スケールアウト ソリューション フォーラム 2016」を5月19日に開催した。東京・渋谷ヒカリエホールを埋め尽くした来場者が注目した「基調講演」「特別事例講演」の模様をお届けしよう。

[12:00 6/24]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第3回 行列の転置を行う場合のメモリアクセス

ここまでは前置きで、ここからは行列の転置を行う場合のメモリアクセスを説明する。最も簡単な直列的実行の実装は、もとの行列inの要素を列方向に読み、それを出力の行列outの行方向に格納するというもので、これを2重ループで廻す。

[09:00 6/24]

2016年06月22日(水)

ISC 2016 - TOP500の1位は中国の「太湖之光」、Green500の1位は日本の「菖蒲」

独フランクフルトで開催中の「ISC 2016」にて、中国の「太湖之光(TaihuLight)」が、TOP500を決めるLINPACKで96PFlopsをマークして、ダントツの1位となった。太湖之光システムが1位に入ったので、前回のTop10のシステムは、それぞれ順位が1つ繰り下がっただけで、それ以外の変更はなかった。

[11:39 6/22]

ネコの小脳をShoubuスパコンで実現 第3回 人間の小脳のリアルタイムシミュレーションに挑戦

6月にShoubu全系での動作も確認しており、その結果、72mm×70mmの小脳が扱えるようになったという。今後の計画としては、今回の10倍の性能が期待される次世代機による1000億ニューロンの人間の小脳のリアルタイムシミュレーションに挑むとしている。

[11:00 6/22]

2016年06月21日(火)

ネコの小脳をShoubuスパコンで実現 第2回 世界最大かつ最高速を実現した小脳モデル

Shoubuスパコンに実装を行った4月上旬、全体の約8割にあたる1008 PEZY-SCの利用が可能であり、ピーク演算性能は2.6PFlopsであった。そこにネコ1匹分に相当する10億ニューロンの小脳を実装したという。

[11:00 6/21]

2016年06月20日(月)

2016年6月の「TOP500」-中国の新型スパコンが93PFlops超を達成し首位を獲得

ISC 2016において、スパコンの性能ランキング「TOP500」の2016年6月版が発表された。それによると、中国の独自プロセッサを搭載した新型スパコン「Sunway TaihuLight」が93PFlops超の性能を達成し、首位を獲得した。また、併せて発表されたGreen500では、日本の理研のスパコン「Sohubu」が1位を3期連続で獲得した。

[17:47 6/20]

ISC 2016 - 今年もフランクフルトにて開幕

2016年6月19日にドイツのフランクフルトのMesse Frankfurtにおいて、「ISC(International Supercomputer Conference)2016」が開幕した、昨年はライプニッツからフランクフルトに会場を移転した最初の年であり、6月に会場が確保できず、7月になってしまったが、今年は6月開催に戻り、Top500などの更新も6月に戻った。

[12:41 6/20]

ネコの小脳をShoubuスパコンで実現 第1回 小脳の仕組みを理解する

2016年6月8日に理化学研究所(理研)で、「スーパーコンピュータHOKUSAIとShoubu、研究の最前線」と題するシンポジウムが行われ、電気通信大学の山﨑匡 助教が「Shoubuで実現するネコ一匹分の人工小脳」と題する招待講演を行った。

[11:00 6/20]

2016年06月17日(金)

コンピュータアーキテクチャの話 第356回 積層することで性能向上を図ったHBM

GDDRメモリは、GPUと1対1に短い配線で接続することでデータ転送速度を改善してきたのであるが、消費電力の制約もあり、今後、大きな性能向上は望めない状況になっている。このため、注目を集めているのが、「HBM」のいう技術である。

[10:00 6/17]

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第2回 輸送機で考えるGPUのメモリバンド幅とレーテンシ

メモリバンド幅は、単位時間あたりどれだけのデータをメモリから読み出せるかという値で、単位時間あたりどれだけの貨物を運べるかと同じ性質の値である。ということでイメージしやすいように、ここでは、輸送の比喩を使って説明する。

[09:00 6/17]

【特別企画】「話題」で終わらせない - ディープラーニングの活用をMATLABではじめる

ディープラーニング(深層学習)の成果を企業活動に生かそうという取り組みが活発化している。ベンダー各社によるツールの展開が進んだことで、一般企業でもディープラーニングの成果を利用しやすくなってきているのだ。

[09:00 6/17]

2016年06月16日(木)

理研のスパコン「HOKUSAI」が描き出すスパコンを活用した最先端研究の世界

2016年6月8日に開催された理研のスパコンシンポジウムでは、新スパコン「HOKUSAI」を活用したさまざまな分野の研究成果が披露され、高性能スパコンがいかに科学分野の先端研究に活用されているかを見て取ることができた。

[10:00 6/16]

2016年06月15日(水)

PEZY、量子アニーリングをシミュレートするプログラムを開発

2016年6月8日に理化学研究所(理研)で、「スーパーコンピュータHOKUSAIとShoubu、研究の最前線」と題するシンポジウムが行われ、PEZYの石川仁氏が「量子アニーリングアルゴリズムの並列化」と題して発表を行い、量子アニーリングをシミュレートするプログラムの説明を行った。

[10:00 6/15]

2016年06月14日(火)

理研のスパコン「Shoubu(菖蒲)」、LINPACK性能で1PFlopsを達成

2016年6月8日に理化学研究所(理研)で、「スーパーコンピュータHOKUSAIとShoubu、研究の最前線」と題するシンポジウムが行われ、PEZY/ExaScalerの齊藤社長が基調講演を行い、ShoubuスパコンがLINPACK性能で1PFlopsを突破したことを明らかにした。

[10:00 6/14]

2016年06月10日(金)

GPUアプリの性能を最大限に引き出すためのGPU MEMORY BOOTCAMP 第1回 新人のCUDAプログラマを一人前に育て上げるGPU MEMORY BOOTCAMP

2015年に開催された「GTC 2015」と2016年開催の「GTC 2016」でNVIDIAのTony Scudiero氏が「GPU MEMORY BOOTCAMP」と題するチュートリアルを行った。GPUは大量の演算器を搭載しているので、演算よりもメモリアクセスがネックになるケースが多い。ということで、いかにメモリを上手く使うのか、といった技術の解説を行った。

[09:00 6/10]

2016年06月07日(火)

Intel、基幹サーバ向けに最大24コアの「Xeon E7 v4」を発表

Intelは6月6日(米国時間)、リアルタイム分析やインメモリコンピューティングなどの分野に向けたCPUとしてBroadwell-EX(開発コード名)ベースの「Intel Xeon E7 v4ファミリ」を発表した。

[12:36 6/7]

2016年06月03日(金)

コンピュータアーキテクチャの話 第355回 GPUにおけるECCの考え方

GPUを使って科学技術計算を行なう場合は1bitのエラーも許されない場合が多い。このため、NVIDIAはFermi世代のGPUからECCをサポートしている。

[10:00 6/3]

2016年05月30日(月)

GDEPアドバンス、ディープラーニングスパコン「DGX-1」のレンタルを開始

GDEPアドバンスは5月30日、NVIDIAのディープラーニングスーパーコンピュータ(スパコン)「DGX-1」の長期レンタルサービス「DGX-1 ロングレンタルサービス」の提供を6月1日より開始すると発表した。

[12:46 5/30]

2016年05月25日(水)

COOL Chips XIX - 開発競争が激化するイメージングデバイス 第3回 フォトンの情報の活用で変わる次世代イメージセンサ

次世代のイメージセンサではフォトンの持つさまざまな情報の活用が検討されている。そうした情報を活用することで、従来のイメージ品質の向上に加え、さらなる付加価値の提供が可能になるためだ。はたして未来のイメージセンサでは、どのようなことが可能になるのか。

[13:00 5/25]

GTC 2016 - 使い勝手を大きく改善するPascalのUnified Memory 第3回 デマンドページングにより、プログラミングの負担を低減

Atomicなメモリアクセスであるが、Pascal以前のGPUでは、1つのGPUの中では有効であるが、システムメモリや他のGPUのGPUメモリのアクセスのアトミック性は保証されていなかった。

[11:00 5/25]

2016年05月24日(火)

COOL Chips XIX - 開発競争が激化するイメージングデバイス 第2回 どうやってイメージセンサは性能を向上してきたのか

イメージセンサの性能向上させるためにはさまざまな取り組みを進める必要がある。ダイナミックレンジの拡大やISOの向上、そして画像のノイズ低減などであるが、それらの技術はいかにして実現されてきたのだろうか。

[13:00 5/24]

GTC 2016 - 使い勝手を大きく改善するPascalのUnified Memory 第2回 Pascalで実現したCPU-GPUのメモリ間の双方向のページ移動

最新世代であるPascalまでの世代ではUnified Memoryといっても、CPUとGPUのページサイズが異なるため、CPU側のページをGPUに移すことができなかった。この問題を解決するためにPascalではページサイズをCPUとGPUで統一、双方向のデマンドページングを実現した。

[11:00 5/24]

2016年05月23日(月)

COOL Chips XIX - 開発競争が激化するイメージングデバイス 第1回 イメージセンサの原理

COOL Chips XIXにおいてソニーがイメージングデバイスの現状と将来の開発方向について基調講演を行った。今後、イメージングデバイスの適用範囲は拡大していくことが見込まれ、その高い成長性から開発競争が激化している。

[13:00 5/23]

GTC 2016 - 使い勝手を大きく改善するPascalのUnified Memory 第1回 CPUとGPUの連携を簡素化するUnified Memory

GPUが描画だけに使われ、CPUがシステムメモリに格納した描画データをGPUが読み出す、といった役割だけの時代であればCPUとGPUが独立したメモリ構造で問題がなかった。しかし、シミュレーションなどを行う場合、システムメモリとGPUメモリの間のデータを共有してやる必要がある。そのために考えられたのが「Unified Memory」だ。

[11:24 5/23]

2016年05月20日(金)

人工知能エンジンの性能を1000倍向上させる - PEZYが新会社を設立し、技術開発を開始

2016年5月18日に開催された「第1回全脳アーキテクチャシンポジウム」においてPEZY Computingの齊藤社長が、「Deep Insights(ディープインサイツ)」という会社を新たに設立し、現状の1000倍の性能を持つ人工知能エンジンの開発に乗り出すことを明らかにした。

[11:49 5/20]

富士通フォーラム2016 - 富士通とExaScaler、液浸ビジネスサーバを展示

富士通が東京国際フォーラムにおいて開催した「富士通フォーラム2016」において、富士通とExaScalerは共同展示という形で複数種の液浸を採用したビジネスサーバ群を披露した。

[10:01 5/20]

コンピュータアーキテクチャの話 第354回 GPUのデバイスメモリのアドレスの考え方

GPUは非常に高性能の演算器群を持っているので、それらに供給するデータの読み込みや処理結果の書き込みには大量のメモリアクセスが必要になる。

[10:00 5/20]

COOL Chips XIX - コンピューティングの新たなフロンティア 第5回 ムーアの法則が終わる時、Intelはどこに向かうのか

Intelは来るIoT時代に向け、Coreプロセッサではなく、QuarkやAtomベースのモジュールを製品化、市場開拓に注力している。さらに、そうやって生み出される大量のデータをさまざまな計算モデルを活用して処理していくことも考えており、広義の意味でのコンピューティングでの広がりを見つめ、研究を進めている。

[07:00 5/20]

2016年05月19日(木)

imec、シリコン半導体技術を適用した量子コンピュータの研究開発に着手

imecは5月17日(欧州時間)、オランダ国アムステルダムでのQuantum Europe Conference(欧州量子会議)開幕にあわせて、量子コンピュ―ティングに焦点を当てた研究開発を開始すると発表した。

[09:00 5/19]

COOL Chips XIX - コンピューティングの新たなフロンティア 第4回 MCDRAMと3D XPoint技術で変わるビッグデータ処理

プロセサは消費電力の制約からクロック周波数を引き上げる方向からマルチコア化に舵が切られて久しく、現在は最大22コアというチップも出てきた。しかし、並列処理性能のさらなる向上に向け、IntelではXeon Phiというマルチコアプロセサの開発が進められている。

[07:00 5/19]

2016年05月18日(水)

COOL Chips XIX - コンピューティングの新たなフロンティア 第3回 Intelが考えるFPGAの活用方法

Intelは2015年の12月にFPGAメーカーのAlteraを買収した。現在のFPGAは、論理ゲートだけでなく、各種の高速I/O、SRAMブロック、DSPなどのブロックも備えられており、かなり複雑で高機能のLSIを作れるようになってきている。

[07:00 5/18]

2016年05月17日(火)

COOL Chips XIX - コンピューティングの新たなフロンティア 第2回 SkylakeのGPUの構造

SkylakeのGPUのExecution Unit(EU)は7つのハードウェアスレッドを切り替えながら同時並行的に実行することができる。そして、スレッドアービタは7つのスレッドの命令の中から、2つのSIMD FPUで演算を行う命令、分岐命令、メモリのRead/WriteやI/Oなどを実行させるコマンドを送り出すSend Unitへの命令を選択して、それぞれのユニットに発行する。

[07:00 5/17]

2016年05月16日(月)

COOL Chips XIX - コンピューティングの新たなフロンティア 第1回 SkylakeのGPUが示したIntelの新たな方向性

COOL Chips XIXにおいて、IntelのPrincipal EngineerのMichael McCool氏が「New Frontiers in Computing」と題して基調講演を行った。なお、McCool氏から念を押されたが、Skylakeの説明などはIntelの発表資料であるが、将来のコンピューティングに関してはIntelの公式見解ではなく、McCool氏の個人的な見解であるとのことである。

[13:00 5/16]

2016年05月13日(金)

COOL Chips XIX - データフロー計算で高性能を実現するMaxeler 第2回 DFEの専用チップ化でFPGAの10倍の性能向上を計画

Maxelerは大学などとタイアップをすることで、さまざまな対応プログラムの開発や移植を進めており、現在、その数は60種類以上に達しているという。

[11:00 5/13]

2016年05月12日(木)

COOL Chips XIX - データフロー計算で高性能を実現するMaxeler 第1回 産業用途で活用可能な高い計算能力を備えるデータフローコンピューティング

COOL Chips XIXにおいて、Maxeler Technologiesの創立者でCEOのOskar Mencer氏が、同社のデータフローコンピューティングについて基調講演を行った。同社は加算や除算などの演算器をチップ上に作りこみ、1ステップの工程を処理する単位時間ごとに1つの入力データの処理を行うことで、スループットが低下しない処理を実現している。

[11:00 5/12]

2016年05月11日(水)

COOL Chips XIX - 究極の低電力を目指すPULPプロセサ 第3回 PULPプロセサを補完する研究開発も進展

PULPは大きな広がりをもったプロジェクトで、PULPプロセサを補完する各種のチップが開発されている。その1つが、ニューラルネットワークの処理のアクセラレータの「Origami」である。

[09:00 5/11]

GTC 2016 - ディープラーニングで救急医療を助ける「DR.TED」

NVIDIAが開催した「GTC 2016」の発表の中でも異色で興味深かったのは、ロサンゼルス子供病院の「DR. TED」という小児集中治療センターの救急医療を効率化するシステムについての発表である。

[07:00 5/11]

2016年05月10日(火)

COOL Chips XIX - 究極の低電力を目指すPULPプロセサ 第2回 低消費電力化のためにUTBB FD-SOI技術を活用

電源電圧を下げた場合に問題となるのは、トランジスタの製造バラつきである。そこでPULPが取り入れたのがUTBB FD-SOIという半導体製造技術である。

[10:00 5/10]

2016年05月09日(月)

COOL Chips XIX - 究極の低電力を目指すPULPプロセサ 第1回 欧州が推進するIoT時代の超低電力化プロセサの研究

2016年のCOOL ChipsではETH Zurich兼ボローニャ大のLuca Benini教授が来日し、IoT時代に必要とされる超低消費電力化の研究プロジェクト「PULP」について、「Sub-pJ-Scalable Computing」と題する基調講演と最新の研究成果を披露した。

[13:47 5/9]

2016年05月06日(金)

なぜディープラーニングにはGPUが必要なのか - NVIDIA Deep Learning Day 2016 Spring

NVIDIAは4月27日、都内でディープラーニングの最新動向などを紹介するイベント「NVIDIA Deep Learning Day 2016 Spring」を開催し、4月4~7日(米国時間)にかけて開催された「GTC 2016」の内容などを含め、日々進化を続けるディープラーニングの概要や、なぜディープラーニングにGPUが必要とされているのか、などについて紹介を行った。

[11:00 5/6]

コンピュータアーキテクチャの話 第353回 GPUにおける1次キャッシュのコヒーレンシ

GPUはSMごとに1次キャッシュメモリを持っている。従って、1つのSM内で走るすべてのスレッドは同じ状態を見ることになり、矛盾は生じない。しかし、これをマルチコアのCPUの1次キャッシュと同じように、すべてのSMの1次キャッシュをコヒーレントに保とうとすると、他のすべてのスレッドからのスヌープを受け付ける必要がある。

[09:00 5/6]

2016年04月28日(木)

マクニカ、FPGA向けOpenCL開発環境をネットワーク経由で無償提供

マクニカは4月27日、同社技術ブランド Mpression(エムプレッション)のサービスとして、FPGA向けOpenCL開発環境をネットワーク経由で無償提供するサービス「Mpression OpenCL ラボ」を開始すると発表した。

[13:38 4/28]

2016年04月25日(月)

GTC 2016 - 視覚障害者を助けるHorus Technology

GTC 2016のスタートアップの会社の展示で、興味を惹かれた会社としてHorus Technologyという会社がある。同社はまだ開発中ながら、高度な画像認識機能を備えたウェアラブルデバイスの開発を行っている。

[13:06 4/25]

GTC 2016 - 基調講演にみるNVIDIAの戦略

GTC 2016は、例年のようにJen-Hsun Huang CEOの基調講演で幕を開けた。ここで、Jen-Hsunが何を喋るかは、NVIDIAのビジネス戦略を理解する上で重要である。同社は6分野に向けて事業を展開しており、その中でも自動運転を含むAIとVRはもっとも注力している分野となる。

[12:48 4/25]

ExaFlops一番乗りを狙う - PEZYグループの野望

2015年6月のGreen500で1~3位を獲得したスパコンを開発したPEZY Computingを率いる齊藤社長は私企業でのエクサスケールのスパコン実現を目指している。本当にそんなことが可能なのか、同社のロードマップから読み解く。

[10:00 4/25]

2016年04月22日(金)

GTC 2016 - HDビデオでリアルタイムに顔を認識するHerta Security

Herta Securityは顔認識を行う会社である。当然、顔認識にはディープラーニングを使っており、顔の画像から性別、年齢、人種などを認識するが、処理をすべてローカルで行っているといったところが特徴となっている。

[10:00 4/22]

コンピュータアーキテクチャの話 第352回 GPUで用いられるシェアードメモリの原理

DRAMで作られたメモリからデータを読み、処理を行ってメモリに書き戻すというのは時間が掛かり効率が悪い。このため、CPUでは小容量だが高速のメモリをキャッシュとして使うが、GPUでは伝統的にローカルな小容量のスクラッチパッドメモリ、いわゆる「シェアードメモリ」が用いられてきた。

[08:00 4/22]

2016年04月21日(木)

ネットワールドがGDEPと提携 - ディープラーニング分野に本格進出

ネットワールドは、NVIDIAのGPU関連製品を各種提供しているGDEPソリューションズと提携し、ディープラーニング分野に向けてNVIDIAのGPUコンピュータに高性能のネットワーク、ストレージ、および開発キットなどの各種ソフトウェアをパッケージ化したコンバージド・システムの提供を開始すると発表した。

[19:14 4/21]

GTC 2016 - なぜNVIDIAはディープラーニングに注力するのか

GTC 2016の主要テーマは「ディープラーニング」である。事業内容から言えばNVIDIAの収益の多くはゲーム用GPUなどとなるが、近い将来、売り上げに大きな比重を占めると見て、注力している分野である。

[11:00 4/21]

GTC 2016 - 新技術を多数詰め込んだNVIDIAの次世代GPU「Pascal」 第4回 ユニファイドメモリの改良によりCPUとGPUの連携を強化

CPUのメモリとGPUのメモリに統一されたメモリアドレスを振り、アドレスをみれば、それがCPU側にあるか、GPU側にあるかを判別できるという方式を「ユニファイドメモリ」と呼ぶ。Maxwellまでは、CPUとGPUは別々の容量のページを使っており、手間が発生していた。そこでPascalでは、GPUのページサイズを変更し、x86 CPUと同じページサイズへと変更を行った。

[09:00 4/21]

2016年04月20日(水)

GTC 2016 - トヨタの自動運転へのアプローチ

GTC 2016において、トヨタ自動車の人工知能技術の研究・開発を行うTRIのGill Pratt博士が基調講演を行った。

[11:00 4/20]

GTC 2016 - 新技術を多数詰め込んだNVIDIAの次世代GPU「Pascal」 第3回 半精度の浮動小数点演算のサポートでディープラーニング性能を向上

GP100のSMの命令発行機構は、KeplerやMaxwellと同じであるが、CUDAコア数やシェアードメモリの改善、そしてFP16の半精度浮動小数点演算をサポートなどによりディープラーニングでの演算性能を向上させている。

[09:00 4/20]

2016年04月19日(火)

GTC 2016 - 新技術を多数詰め込んだNVIDIAの次世代GPU「Pascal」 第2回 演算性能指標が大きく向上したPascal

2016年4月に開催された「GPU Technology Conference(GTC 2016)」の基調講演で、NVIDIAは、次世代のGPUである「Pascal」を発表した。Pascal GPUのFP32の単精度浮動小数点演算性能はKeplerアーキテクチャのK40と比較すると3倍の性能。GPU-GPU間の通信バンド幅は160GB/sと5倍、メモリバンド幅は3倍に向上している。

[09:00 4/19]

GTC 2016 - Top500にもランクイン可能なディープラーニング用スパコン

2016年4月に開催された「GTC 2016」において、NVIDIAのJen-Hsun Huang CEOは、基調講演の中でディープラーニング用のスーパーコンピュータ「DGX-1」を発表した。このスパコンは、NVIDIAの次世代GPUである「Tesla P100)」を8台搭載し、ディープラーニングで使われるFP16の演算なら170TFlopsという驚異的な性能を持つ。

[08:00 4/19]

2016年04月18日(月)

GTC 2016 - 新技術を多数詰め込んだNVIDIAの次世代GPU「Pascal」 第1回 Pascalに詰め込まれた5つのミラクル

2016年4月に開催された「GPU Technology Conference(GTC 2016)」の基調講演で、NVIDIAは、次世代のGPUである「Pascal」を発表した。Pascalには多くの新技術が詰め込まれている。同社は、これを5つのミラクルと述べた。

[09:00 4/18]

2016年04月15日(金)

ヤマハ、「人工知能演奏システム」による人間×機械の演奏会に技術協力

ヤマハは、東京藝術大学ならびに東京藝術大学COI拠点主催の演奏会「音舞の調べ~超越する時間と空間~」に技術協力を行い、同社が開発中の「人工知能演奏システム」を用いて、故スヴァトスラフ・リヒテルの往年の演奏を忠実に再現し、ベルリンフィル・シャルーンアンサンブルとの共演にて演奏を披露すると発表した。開催日は5月19日 19:00~(18:00開場)。会場は東京都・台東区の東京藝術大学奏楽堂。

[15:53 4/15]

2016年04月13日(水)

国内で開催されるIEEEの国際学会「COOL Chips XIX」 - 4月20日より開催

今年も4月20日から22日にかけて横浜市の情報文化センターで「COOL Chips XIX」が開催される。研究発表が中心の学会は、その分野の専門家でないと議論について行き難いが、COOL Chipsは斯界の権威が要領よくまとめた講義を行ってくれる基調講演や招待講演が多く、専門外の人にも理解しやすい学会である。

[16:51 4/13]

2016年04月08日(金)

GDEPソリューションズ、ディープラーニング向けスパコンNVIDIA DGX-1を販売

NVIDIAのGPU製品を活用したソリューションを提供するGDEPソリューションズは4月8日、GTC 2016において発表されたディープラーニング向けスーパーコンピューター(スパコン)「NVIDIA DGX-1」の販売を開始すると発表した。

[18:12 4/8]

最新Top 500で7位の「Piz Daint」、NVIDIA Pascal GPUで速度2倍に-GTC2016

NVIDIAは4月6日(現地時間)、GTC 2016にてPascalアーキテクチャをベースとするNVIDIA Tesla GPUアクセラレータがスイス国立スーパーコンピューティング・センター(CSCS)のスーパーコンピューター(スパコン)「Piz Daint」システムのアップグレードバージョンに採用されたと発表した。

[16:11 4/8]

コンピュータアーキテクチャの話 第351回 GPUでスレッドを同期させる手法

GPUでは多数のスレッドを並列に動作させて処理を分担させる。このような場合、しばしば、すべてのスレッドの処理の終了を待ち合わせることが必要になる。

[08:30 4/8]

ディープラーニング特化型スパコン、GTC 2016でNVIDIAが発表

NVIDIAは4月5日(米国時間)、GTC 2016にて人工知能(AI)で要求される無制限のコンピューティングに対応するディープラーニング・スーパーコンピュータ(スパコン)「NVIDIA DGX-1」を公開した。

[08:00 4/8]

GTC 2016 - NVIDIA、Pascalアーキテクチャ採用GPUアクセラレータを発表

NVIDIAは4月5日(米国時間)、GTC 2016にてTSMCの16nm FinFET(16nm FF)プロセスを採用した次世代GPUアーキテクチャ「Pascal」をベースとするハイパー・スケールデータアクセラレータ「NVIIDA Tesla P100」を発表した。

[07:30 4/8]

2016年04月05日(火)

シミュレーション連携で人工知能開発を加速-NECと産総研が共同研究室を設立

NECと産業技術総合研究所(産総研)は4月5日、ビッグデータ活用に向け、産総研の人工知能研究センター内に「産総研-NEC 人工知能連携研究室」を2016年6月1日付で設置すると発表した。

[18:23 4/5]

ディープラーニング関係の発表は約50件 - GTC 2016が開幕

NVIDIAの主催する「GPU Technology Conference(GTC)」が2016年4月4日に開幕した。今年はディープラーニング関係の発表が50件あまりにのぼり、その中でもBaiduの発表が多いのが目につく。また、自動運転の技術のセッションも大きな目玉である。

[13:43 4/5]

2016年03月30日(水)

米ローレンス・リバモア国立研究所、脳をモデルにしたIBMのスパコンを購入

米ローレンス・リバモア国立研究所は3月30日、IBMが開発した、脳に着想を得たディープ・ラーニング・インフェレンス(深層学習推論)向けスーパーコンピューター・プラットフォームを購入したと発表した。

[16:08 3/30]

2016年03月25日(金)

世界最強の囲碁棋士にも勝ち越し - 半年足らずで劇的に強くなったAlphaGo

碁は、盤面が大きく250の150乗程度のバリエーションがあり、コンピュータが人間の有段者に勝てるようになるには少なくとも10年はかかると見られていた。このような状況で、Google DeepMindのAlphaGoが2015年には3度の欧州王者となった経歴を持つFan Hui氏(プロ2段)を破り、そして2016年3月にはプロ九段のLee Sedol氏と対戦し、4勝1敗という成績で勝ち越した。はたして、このAlphaGoのシステムとはどのようなものであるのか。

[15:08 3/25]

2016年03月24日(木)

富士通研、サーバの電源交換時期を自己診断するソフトウェア

富士通研究所は3月23日、サーバなどICT機器に搭載されているデジタル制御電源のマイコン上にソフトウェアとして実装可能な、電源の交換時期の自己診断技術を開発したと発表した。

[13:06 3/24]

2016年03月18日(金)

コンピュータアーキテクチャの話 第350回 NVIDIAの世代別GPUに見るハードウェアの違い

NVIDIAのGPUの場合は、PTX命令はGPUで直接実行されるのではなく、GPUドライバが、本当のマシン命令に翻訳したものをGPUハードウェアに供給するという仕組みになっている。マシン命令とPTXはかなり近いといわれるが、GPUの世代によって、同じPTX命令が異なるマシン命令あるいはマシン命令の列に翻訳されて実行されることがあり得る。

[13:00 3/18]

2016年03月04日(金)

コンピュータアーキテクチャの話 第349回 GPUにおける条件分岐の方法

コンピュータのプログラムで、条件を判定して、その後の処理を変えるという機能を使わずに済むものはほとんど無いといってよい。CPUのマルチスレッド処理のように、実行するスレッドごとにプログラムとPC(プログラムカウンタ)があるプロセサの場合は、if文の条件が成立したスレッドではthen節の命令を実行し、条件が不成立のスレッドではelse節の命令を実行するようにすればよい。

[11:00 3/4]

2016年03月01日(火)

NVIDIA、空飛ぶ人工知能を実現するGPU組み込みモジュールの国内提供を開始

NVIDIAは3月1日、GPU搭載組み込みシステムモジュール「Jetson TX1」の開発キットの国内提供を3月中旬から開始することを明らかにした。

[19:28 3/1]

2016年02月19日(金)

コンピュータアーキテクチャの話 第348回 複数のデータの処理を一度に行うGPUのメモリアクセス

GPUは、Single InstructionでMultiple Thread方式であるので、複数のデータの処理を行う。入力オペランドをレジスタファイルから読み、演算を行って結果をレジスタファイルに書き込む命令の場合は、スレッドごとにレジスタがあるので、並列に実行することに問題はない。

[13:00 2/19]

2016年02月16日(火)

社会や産業界に変革を - NIIがコグニティブ・イノベーションセンターを開設

国立情報学研究所(NII)は2月15日、日本の社会や産業界に変革をもたらすようなコグニティブ・テクノロジーによるイノベーションを推進する研究部門「コグニティブ・イノベーションセンター」を2月1日付けで設置したと発表した。

[08:00 2/16]

2016年02月10日(水)

ディープラーニングの原理とビジネス化の現状 第7回 株の売買にディープラーニングを活用

みずほ証券の等々力昌彦氏は、コンピュータが株式を売買するアルゴ(Algorithmの略の業界用語)取引が、東証の取引の7割を占めると説明し、ディープラーニングを使うみずほ証券のシステムについて説明した。またABEJAは、ディープラーニングを応用したインストアアナリティクスの説明を行った。

[10:00 2/10]

2016年02月09日(火)

ディープラーニングの原理とビジネス化の現状 第6回 ニコニコ動画のコメント分析にディープラーニングを活用

海外での事例は、NVIDIAの井崎氏がスライドで説明しただけであるが、日本の事例としては、ドワンゴの小田桐氏、みずほ証券の等々力氏、ABEJAの岡田CEOが登壇してプレゼンテーションを行った。

[10:00 2/9]

2016年02月08日(月)

ディープラーニングの原理とビジネス化の現状 第5回 ディープラーニングを活用する世界の企業

ディープラーニングの世界での活用事例であるが、その範囲は多岐にわたり、人間の感情を認識するものから、製造分野、バイオなど幅広い実分野での活用が始まっている。

[10:00 2/8]

2016年02月05日(金)

ディープラーニングの原理とビジネス化の現状 第4回 ニューラルネットワークの仕組み

学習する画像を増やせば、認識率が改善されるとしても、所望の認識率に届くとは限らない。その場合には、どうやって改善すれば良いのであろうか?

[10:00 2/5]

コンピュータアーキテクチャの話 第347回 CPUとは異なり、レジスタ対応が固定ではないGPU

CPUのレジスタ番号は固定で、1つのハードウェアスレッドの中でR1と言えば、常に同じレジスタを指す。一方、GPUでは、例えば、ハードウェア的には2048エントリ×32スレッドという巨大なレジスタファイルを持ち、これを同時に実行される64Warpで共用するという構造が用いられる。

[09:00 2/5]

2016年02月04日(木)

富士通研究所、1万枚以上から部分一致する画像を1秒で検索できる技術

富士通研究所は、大量画像の中から部分的にでも一致する画像を高速に検索する技術を開発したことを発表。汎用サーバで検索する場合と比べて50倍以上の処理能力の向上を確認したという。

[13:59 2/4]

ディープラーニングの原理とビジネス化の現状 第3回 ディープラーニングの進歩を振り返る

正解がついた画像を大量に作るには、大変な手間がかかる。この問題を解決するのがオートエンコーダ(AutoEncoder)を使う教師なし(正解ラベル無し)学習である。

[10:00 2/4]

2016年02月03日(水)

ディープラーニングの原理とビジネス化の現状 第2回 ディープラーニングの学習方法

重みの変更であるが、重みを変えると、出力がどれだけ変わるかという傾きを計算し、誤差が小さくなるように重みを変更する。こう書くと簡単であるが、重みの数は、ニューロンの数の100倍のオーダーである。また、1つの重みの変更だけで誤差を最小にしようとすると、他の重みの出番が無くなってしまうという過剰な変更になり、他の画像ではうまく行かなくなってってしまう。

[10:00 2/3]

2016年02月02日(火)

ディープラーニングの原理とビジネス化の現状 第1回 ディープラーニングシステムの基本を知る

ディープラーニングとはいかなるものかを、2015年に開催された「NVIDIA GTC」におけるGoogleのJeff Dean氏の基調講演とそのスライドを基にして説明し、その後、実ビジネスにおいて、現在、どんな活用方法が模索されているのかを探っていく。

[10:00 2/2]

2016年01月22日(金)

コンピュータアーキテクチャの話 第346回 Kepler GPUとMaxwell GPUの演算単位を推測する

Kepler GPUでは、1個のワープスケジューラが毎サイクル(最大)2命令を発行するというのはNVIDIAのドキュメントに明記されており、間違いない。しかし、SMの図を見ると、8個のDispatcherで毎サイクル最大8命令の発行であるのに対して、縦に16個の実行ユニットが並んだ列が20列描かれている。

[09:00 1/22]

2016年01月19日(火)

SC15 - TOP500で2位のスパコン「Titan」の信頼性を考える

Oak Ridge国立研究所(ORNL)のTitanスパコンは、TOP500で2位の大型スパコンである。SC15において、このTitanの故障を分析した論文をORNLのDevesh Tiwari氏が発表した。

[09:00 1/19]

2016年01月08日(金)

コンピュータアーキテクチャの話 第345回 Kepler GPUの構成

Kepler GPUでは、4つのワープスケジューラで最大1サイクルに8命令を発行できるという構成になっている。その下には全体では、32bit語のエントリを65,536個持つレジスタファイルがあり、ディスパッチャからの命令とレジスタファイルからのオペランドを演算器群に送って演算を行う。

[11:30 1/8]

2016年01月06日(水)

SC15 - Tezzaronの最大18ウェハを積み上げる3D実装のDiRAM4アーキテクチャ

SC15の展示場で、建築の足場のような鉄パイプで3階建ての櫓を作っていた会社があった。「Tezzaron」という会社で、 3階に上がると、展示場全体が見渡せるとブースの前を通る人を呼び込んでいた。

[10:00 1/6]

バックナンバー

人気記事

一覧

イチオシ記事

新着記事