Amazon Web Servicesジャパンは今年6月、年次イベント「AWS Summit Japan 2025」を開催した。同イベントにおいて、ソニーセミコンダクタソリューションズグループは「ソニーセミコンダクタソリューションズグループにおける半導体製造 DX の取り組みと今後の展望」と題した講演を行った。
2部構成の前半では、ソニーセミコンダクタマニュファクチャリング株式会社 生産技術部門 データマネジメント技術部 統括部長の宮永卓実氏がソニーセミコンダクタソリューションズグループにおけるデータ活用の取り組みについて語った。
半導体製造におけるデータ活用とは
「イメージセンサーは電子の目と呼ばれている。人間の網膜に当たるもので、入って来た光を電気信号に変えて後段の処理に送るもの」と解説した上で、宮永氏はイメージセンサーの製造フローと半導体の製造プロセスを紹介した。
「投入して加工して検査してというプロセスを繰り返す。投入したものがすべて良品になれば歩留まり100%だが、新しい技術、複雑な加工技術を使うため、特に新しいタイプの投入初期は歩留まりが下がることがある。そういう時に投入から測定までのデータを収集し、不良の要因を分析する。また、測定後に原因が特定されても次のロットにフィードバックするには数カ月を要するため、プロセスの初期に異常を検知して不良になりそうなものに是正をかけ、フィードフォワードにもビッグデータを活用している」(宮永氏)
イメージセンサー製造の複雑性とデータ活用の背景
イメージセンサーの分析で扱うパラメータは100万項目以上。以前は管理システムから得られる流動履歴、検査データ、最終測定データ等を用いていたが、不良要因特定やフィードフォワードに必要な予測式の構築が困難だったという。
「データの種類が圧倒的に不足していた。ここ数年は加工時の設備コンディションがわかるような、装置のログなどのデータを活用して分析をかけている。この項目が非常に多く、100万項目以上を扱うようになった」と宮永氏。
100万項目以上のデータを分析する際は、高い分析能力が求められる。コストをかけて高性能なオンプレミス環境の構築も行った。しかし、ユーザーのマシンのスペック不足やネットワークがボトルネックになるなど、オンプレミス環境だけで分析を続けるには限界を感じたことから、AWSのクラウド環境の活用を検討するきっかけとなった。
AWSクラウドに期待したものとして宮永氏は、潤沢なリソース、最新テクノロジーの活用、チームでのリアルタイムな情報共有の3点を挙げた。
「ビッグデータを活用した分析は毎日やるわけではないが、必要なタイミングで一時的にハイスペックなマシンを用意して分析できるのではないか。歩留まり解析や予測式構築において、統計的手法だけでなくAIや機械学習を活用する際に、AWS環境で提供される最新のテクノロジーで解決できるのではないか。分析はチームで行うが、個々の分析状況や途中経過がタイムリーに共有できる環境が不足していたため、AWSで解決できないかと考えトライしている」と宮永氏はAWSへの期待を語った。
セキュリティや企業ポリシーとの兼ね合いで、現場の希望するクラウド活用が実現するまでには時間がかかったという。
「重要な資産であるデータをクラウドに上げてでも踏み出していかないと次の成長はないということを、経営層が判断してくれたからこそ実現できた。トップの決断がDXを加速させているが、開始する時点でも判断が必要だった」と、宮永氏は経営層の決断が大きな推進力となったことを強調した。
ユーザーが自由に解析できるAWSアカウントを構成
講演の後半では、研究開発センター 第1研究部門12部 係長の兼田有希央氏が、AWS活用の具体例を紹介した。
「AWSを触り始めてから1年たらずのチームでもサービスを作り上げ、現場のエンジニアに提供できている」と話した兼田氏は、2024年度から本格的なAWS活用に着手した歩みを紹介。
4月の顔合わせ以降、3カ月間のPoC(概念実証)を経てクラウドの可能性を確信し、その後の3カ月間でユーザーに提供できるサービスの開発を行ったという。課題に突き当たるたびにAWS側と議論を重ね、解決。その後もサービスの拡充やパフォーマンスの改善を継続している。
ソニーセミコンダクタソリューションズグループでは、複数のAWSアカウントを運用し、利用用途に応じた環境構築とアカウント分離を行うことで、セキュアかつユーザーが自由に解析できる環境を構築しているという。具体的には社内からのユーザーデータの窓口となるログインアカウント、ユーザーが直接解析を行う解析アカウント、データウェアハウス(DWH)環境となるデータ基盤・サービス開発アカウントという構成になっている。
「解析アカウントではAmazon SageMaker AIやAmazon EC2を使うことで、欲しいリソースのオンデマンド取得を実現。データ基盤・サービス開発アカウントでは、超大量のデータを効率よく貯め、ハイパフォーマンスでユーザーに届ける基盤サービスを展開している」と兼田氏は語った。
超大量データに対応するハイブリッドDWHとETLフロー
DWHアーキテクチャの概要も紹介された。データ基盤の具体的な構成は、Amazon RedshiftとS3を組み合わせたハイブリッドなDWHとなっており、データETLフローはAWSのサーバーレス/マネージドサービスを多用することで高い信頼性を実現しているという。
「データがETLのどの状態にあるのかをしっかり管理し、万が一、エラーが起きた時も迅速にリトライできるようなETLフローを組んでいる」と兼田氏はETLにおける工夫を語った。
DWHは、100万項目以上のデータを扱い、1万以上のカラム数を使った解析も頻繁に行う環境に対応できることが要件となった。また、必要に応じて変化するカラム数に対応でき、ユーザーニーズを満たせるデータ取得速度が出ることも必要だった。
当初はAmazon Redshiftの利用が検討されたが、1万以上のカラムに対応できないため要件を満たせない。そこで、Amazon Redshiftにはトランザクション形式でカラムを絞ってデータを格納し、不足分をAmazon S3にファイルベースで保存して対応した。しかしこの形式では、Amazon SageMaker AIなどでデータを取得し、機械学習や分析を行う際に前処理が必要となる。その前処理にかかる時間がユーザーのストレスになったという。
「この課題を解決するため、パフォーマンスが求められるデータは事前に処理を行い、そのデータを手軽に取得できるAPIを自社で作成。ハイブリッドDWHと呼んでいるが、Amazon RedshiftとAmazon S3によってユーザーは簡単にデータを取得し、すぐ解析できるようになっている」と兼田氏。
講演では具体的なハイブリッドDWHの構成についても解説が行われた。「これによって数分かかっていた前処理を含めたデータの取得が数秒でできるようになり、かなりのパフォーマンス改善を達成できた」兼田氏は成果を語った。










