マイナビニュース | テクノロジー | スパコン/HPC

関連キーワード

イチオシ記事

NTTドコモ、「眠気検知アプリ」が国交省の補助金対象機器に認定

NTTドコモは7月13日、同社が提供しているhitoeを活用した「眠気検知アプリ」が、に国土交通省の「平成29年度事故防止対策支援推進事業」において、「運行中における運転者の疲労状態を測定する機器」に認定されたことを発表した。これにより、自動車運送事業者は、取得に要する経費の1/2の補助がうけられることとなる。

[15:14 7/14]

新着記事

一覧

オリックス・レンテック、ディープラーニング用WSの取扱を開始

オリックス・レンテックは、GDEPアドバンスのディープラーニング専用ワークステーション(WS)「DeepLearning BOX」のレンタルサービスを開始したことを発表した。レンタル料は32万3,400円/月(税別)で、レンタル期間に応じた割引などが適用される。

[14:59 7/21]

NVIDIA、Baidu(百度)とAIの加速に向けた提携

NVIDIAとBaiduとBaidu(百度)は、クラウドデータセンター、自動車、スマートホームにおけるAIの能力を高めるための提携を実施ことを発表した。これにより両社は、お互いの技術リソースを活かしたプラットフォームの構築を行う。

[15:32 7/12]

新着記事

一覧

JAMSTECの「風と流れのプラットフォーム」に流体解析ソフト「HELYX」が対応

ヴァイナスは7月11日、海洋研究開発機構(JAMSTEC)の地球情報基盤センターが進める、流体科学技術イノベーションを促進し産業競争力の強化と研究開発投資効果の向上を目指す技術支援サービス「風と流れのプラットフォーム」に、ヴァイナスが販売とサポートを行っているOpenFOAMの機能強化版である解析ソフトウェア「HELYX」が正式に対応したと発表した。

[08:00 7/12]

ARM、AIに関する意識調査結果を発表 - 雇用の不安はあるが肯定的

英ARM社(以下、ARM)は、同社とNorthstar Research Partners社によって行われた、人工知能(AI)に関する意識調査の結果を発表した。

[09:48 7/6]

NEC、ベクトル型コンピュータに適した機械学習向けデータ処理技術を開発

NECは、ベクトル型コンピュータに適した、機械学習を高速実行するデータ処理技術を開発したことを発表した。

[16:56 7/4]

ISC2017 - 富士通のAIエンジン「Deep Learning Unit(DLU)」

富士通は2016年11月に同社のAIサービスの一環として、「スーパーコンピュータ「京」で培ったプロセッサ開発技術と先端のCMOSテクノロジーを採用した、独自のディープラーニング専用AIプロセッサ『DLU』の開発を進め、2018年度からの出荷開始を目指す」という発表を行った。このDLUについて、フランクフルトで開催されたISC2017において、富士通のAI基盤事業本部シニアディレクターの丸山拓巳氏が発表を行い、その概要が明らかにされた。ここでは、丸山氏の発表をもとに富士通のDLUがどうなっているのかを見て行きたい。

[11:00 7/4]

NICT、ニューラル機械翻訳で音声翻訳アプリ高精度化-話し言葉の精度アップ

NICTの先進的音声翻訳研究開発推進センターは、ニューラルネットワーク(深層学習)を用いた機械翻訳の実用技術「ニューラル機械翻訳(NMT)技術」を開発したと発表した。

[11:53 6/30]

急ピッチでTensor Processing Unit(TPU)の開発を進めるGoogle 第3回 最新のTPUを活用することで強くなっていったAlphaGo

oogle DeepMindのAlphaGoが2015年10月に囲碁の元欧州チャンピオンを破ったときには、CPUやGPUを使う普通のサーバを使っていたと思われるが、2016年3月の韓国のトッププロ棋士を4勝1敗で下したときにはTPU1を搭載したサーバ群を使い、大幅に強さを増していた。さらに2017年5月に行われた世界ランキング1位の柯潔九段を3戦全勝で破った試合では、TPU2を使ったシステムを使っている。

[10:00 6/30]

MIT、光を使ったディープラーニングの原理実証-計算時間と消費電力を大幅削減

マサチューセッツ工科大学(MIT)の研究チームは、ディープラーニングに必要とされる複雑で多量の計算を光コンピューティングを使って高速化、低消費電力化する技術を開発したと発表した。まだ概念実証の段階だが、原理的にはディープラーニングの計算時間を大幅に短縮でき、従来のコンピュータに比べて消費電力を1/1000程度にできるという。

[10:33 6/26]

Green500の舞台裏 - 何がエネルギー効率の差を生んだのか?

スーパーコンピュータ(スパコン)のエネルギー効率を競うランキング「Green500」の2017年6月版は、トップ4システムを日本のシステムが占めたほか、7位と8位にも入った。しかし、裏を覗いてみると、7位を除いた他の9システムは、すべてIntelのXeonにNVIDIAのGPUをアクセラレータとして接続したシステムであり、これは日本の成功というより、NVIDIAの成功とも言うべき状況である。しかし、XeonとGPUを使っていても、そのエネルギー効率には違いがあり、それぞれのシステムがどのようになっているのかを見て行こう。

[18:10 6/23]

急ピッチでTensor Processing Unit(TPU)の開発を進めるGoogle 第2回 第2世代のクラウドTPUを読み解く

TPU1は28nm半導体プロセスで作られ、消費電力は最大40Wとなっている。一方、2017年5月のGoogle IOにおいて発表された第2世代のTPU(クラウドTPU)は、サーバのマザーボードサイズのボードに4個のTPU2を搭載したもので、初代と大きく異なるのは、行列積の計算が8bit整数から16bitの半精度浮動小数点演算となった点である。これにより、TPU2は推論だけでなく、学習にも使えるようになった。

[10:00 6/23]

富士通、台湾ナショナルスーパーコンピュータセンターに新システムを構築

富士通は、台湾富士通とともに台湾ナショナルスーパーコンピュータセンターに新スーパーコンピュータシステムを構築することを発表した。同システムの本稼働は2018年5月が予定されている。

[16:03 6/22]

アナログ・デバイセズ、42V入力の750mA同期整流式降圧DC/DCコンバータ発売

アナログ・デバイセズ(ADI)は、42V入力の750mA同期整流式降圧スイッチング・レギュレータ「LT8607」の販売を開始したことを発表した。「LT8607EDC」は2mm×2mmの8ピンDFNパッケージ、「LT8607EMSE」は熱特性が改善されたMSOP-10パッケージで供給される。

[12:40 6/22]

「京」が性能指標HPCGにおいて2期連続で世界第1位を獲得

理化学研究所と富士通は、スーパーコンピュータ「京」による測定結果で、産業利用など実際のアプリケーションで用いられる共役勾配法の処理速度の国際的なランキング「HPCG(High Performance Conjugate Gradient)」において、2期連続で世界第1位を獲得したと発表した。

[07:33 6/22]

AMD、データセンターサーバ向けプロセッサ「EPYC」を正式発表

AMDは6月20日(米国時間)、高性能データセンターサーバ向けプロセッサ「AMD EPYC 7000シリーズ」を発表した。また、これに併せてHPE、Dell、Asus、Gigabyte、Inventec、Lenovo、Sugon、Supermicro、Tyan、Wistronが搭載製品を発表した。

[06:00 6/22]

省エネスパコンは日本のお家芸になれるのか? - 日本勢が上位を占めた省エネスパコンランキング「Green500」

2017年6月19日(独自間)、スーパーコンピュータ(スパコン)の性能ランキングである「TOP500」の公開に併せる形で、消費電力あたりで演算性能が高いスパコンのランキング「Green500」の2017年6月版も発表された。今回のGreen500のトップ10において、日本勢は1位から4位までを独占したほか、7位ならびに8位にもランクインし、省エネスパコンは日本の強みとなりつつある。その背景にはどのようなことがあるのだろうか。

[16:26 6/21]

理研のAI研究用計算機システムが省エネスパコンランキングで4位を獲得

理化学研究所(理研)は6月19日、理研 革新知能統合研究センターが富士通と共同で設置し運用している人工知能(AI)研究用計算機システム「RAIDEN」が、2017年6月版のスーパーコンピュータ(スパコン)の消費電力当たりの性能ランキング「Green500」にて、4位にランクインしたことを発表した。

[22:30 6/20]

国立環境研究所のスパコンが省エネランキングで8位を獲得 - NSSOLが納入

新日鉄住金ソリューションズ(NSSOL)は6月20日、ISC17の開催に併せて公開されたスーパーコンピュータ(スパコン)の省エネ性能を競う「GREEN500」において、国立環境研究所に納入したスパコン「Research Computation Facility for GOSAT-2(RCF2)」が8位にランクインしたことを発表した。

[12:27 6/20]

ヤフーの深層学習向けシステムが省エネスパコンランキングで2位を獲得

ヤフー(Yahoo! JAPAN)は6月19日、ExaScalerならびにHPCシステムズのもと、ディープラーニング(深層学習)活用に特化した省エネ性能の高いスーパーコンピュータ(スパコン)「kukai(クウカイ)」を開発、ISC17の開催に併せて公開されたスパコンの省エネ性能ランキング「GREEN500」において世界第2位を獲得したことを発表した。

[11:43 6/20]

2017年6月版TOP500 - 日本勢のランクイン数は前回比で20%の増加

フランクフルトで開催中のISC17の冒頭で、スパコンの性能ランキングである2017年6月の「TOP500」リストが発表された。トップは、中国の「太湖之光」、2位も中国の「天河2号」で、1位、2位は昨年11月の前回リストから変更はない。今回のリストで変わったのは、3位にスイスの「Piz Daint」が入った点である。

[10:00 6/20]

スパコンの省エネ性能ランキング - 東工大が1位、産総研が3位を獲得

東京工業大学(東工大)ならびに産業技術総合研究所(産総研)は6月19日、スーパーコンピュータ(スパコン)の省エネ性能を競うランキング「Green500 List」の2017年6月版において、東工大の次世代スパコン「TSUBAME 3.0」が1位を、産総研 人工知能研究センター(AIRC)が、2017年4月より稼働を開始させたクラウド型計算システム「産総研AIクラウド(AAIC)」が3位にランクインしたことを発表した。

[08:00 6/20]

2017年6月の「TOP500」-中国が9連覇 日本トップはJCAHPC「Oakforest-PACS」

6月19日(独時間)、スーパーコンピュータ(スパコン)の処理性能ランキングである「TOP500」の2017年6月版が発表された。49回目となる今回のTOP500の1位は、中国の「Sunway TaihuLight(神威・太湖之光)」で、これで中国は9連覇を達成したこととなる。

[18:10 6/19]

急ピッチでTensor Processing Unit(TPU)の開発を進めるGoogle 第1回 急ピッチで開発が進むGoogleのTPU

Googleは、2016年5月のGoogle IOでTensor Processing Unit(TPU)を初めて発表したが、2017年のGoogle IOでは第2世代となる「Cloud TPU」を発表するという急ピッチの開発を続けている。初代のTPUは、自社のデータセンタでの急増するAI関係の負荷を捌くために、必要に迫られて開発したという感じであるが、今年、発表されたCloud TPUは、これを武器に自社センタのサービスを差別化するだけでなく、クラウド上で一般ユーザがTPUを使うというサービスの販売も視野に入れていると思われる。

[10:00 6/16]

九大、富士通製スパコンの導入を決定 - 総理論演算性能は10PFLOPSを計画

九州大学(九大)情報基盤研究開発センターは6月15日、2017年度10月に稼働開始を予定しているスーパーコンピュータ(スパコン)システムとして、富士通製のスパコンを導入すると発表した。

[06:00 6/16]

日本TI、産業用Ethernet通信のコスト削減に最適化したSoC製品を発表

日本テキサス・インスツルメンツ(以下、TI)は、コストに対して最適化されたEthernet通信機能の実現に役立つ、新しいSitara「AMIC」 SoC製品を発表した。

[11:11 6/8]

東北大、NECなど、地震発生から30分以内で津波浸水被害を推計-内閣府で採用

東北大学、大阪大学、日本電気(NEC)、国際航業、エイツーは共同で、地震発生直後に津波シミュレーションを行い、30分以内で被害推計を行う「津波浸水・被害推計システム」を開発し、同システムが内閣府が運用する「総合防災情報システム」の一機能として採用されることになったと発表した。

[15:27 5/30]

量子コンピュータの重要部品、バリスティック伝導ナノワイヤ接続を実証-IBM

IBMチューリッヒ研究所は、シリコン上に集積した化合物半導体ナノワイヤによる接続デバイスにおいて、電子のバリスティック伝導を実証したと発表した。バリスティック伝導は、材料中を伝わる電子が散乱せずに、弾丸のように直線的に進む現象。この性質を利用すると、電子がもっている量子情報を損失なく伝送できるため、量子コンピュータを実用化する上で重要な部品になると期待されている。

[17:46 5/26]

ディープラーニングに大きく舵をきったVolta GPU 第3回 トランジスタ密度のミステリ - その主要容疑者を探る

V100 GPUのL1データキャッシュは、SMあたり128KBのメモリを分割してシェアードメモリと共用している。FermiやKeplerでは、この構造であったが、P100ではシェアードメモリは独立の構造で、L1データキャッシュはテクスチャキャッシュとメモリアレイを分割して共用するという構造になっていた。P100が出た時は、この構造はL1データキャッシュとシェアードメモリが並列に動作できるので、バンド幅が高いというメリットが強調されていたのであるが、あれはどうなってしまったのだろうか?

[10:00 5/23]

IBM、IBM Qで利用可能な17量子ビット商用プロセッサを開発

IBMは5月17日(米国時間)、2つの汎用量子コンピューティングプロセッサを構築し、テストに成功したと発表した。1つは16量子ビットプロセッサで、主に研究用途として、もう1つは17量子ビットプロセッサで、商用プロセッサのプロトタイプに位置づけられている。

[12:40 5/22]

ディープラーニングに大きく舵をきったVolta GPU 第2回 注目のTensorコアを読み解く

V100 GPUの構成図を見ると、全部で84個のSMが描かれている。SMは独立したプログラムを実行できる単位で、マルチコアCPUのCPUコアに相当する。ただし、84個のうち4個は歩留まり改善のための冗長分で、V100チップの仕様では、使用できるSMは80個ということになっている。P100では56SMであったので、SM数は1.43倍になっている。

[09:00 5/22]

バックナンバー

このカテゴリーについて (テクノロジー>スパコン/HPC)

 トップへ
スーパーコンピュータ/HPC分野で活用される話題をお届けします。

人気記事

一覧

イチオシ記事

新着記事