Enabler Dan Hambatan Untuk Menghubungkan Beragam Data

Node Sumber: 1456575

Semakin banyak data yang dikumpulkan pada setiap langkah proses manufaktur, sehingga meningkatkan kemungkinan menggabungkan data dengan cara baru untuk memecahkan masalah teknis. Namun hal ini tidaklah sederhana, dan menggabungkan hasil tidak selalu memungkinkan.

Kehausan industri semikonduktor akan data telah meningkat lautan itu dari proses pembuatannya. Selain itu, desain semikonduktor besar dan kecil kini memiliki sirkuit on-die, yang menyediakan informasi uji kelistrikan tambahan yang mengalir ke lautan data ini. Tim teknik perlu mengelola banyaknya data ini dan mereka perlu memfasilitasi penggunaan data oleh tim teknik yang beragam.

Lebih banyak data yang dapat dihubungkan bersama dibandingkan sebelumnya, namun tidak semuanya dan tidak 100% setiap saat. Sekalipun memungkinkan, hal ini sering kali memerlukan upaya rekayasa yang terpadu dan di muka. Untuk produk apa pun, menghubungkan semua sumber data ke dalam satu sistem atau model belum tentu praktis atau penting untuk rekayasa sehari-hari.

Kompleksitas teknologi CMOS telah meningkatkan jumlah dan jenis data yang dikumpulkan selama proses produksi. Sebagian besar, para insinyur telah menggunakan data ini secara tertutup, khususnya selama fabrikasi wafer, proses perakitan, dan proses pengujian terkait. Untuk menghadapi tantangan node proses CMOS tingkat lanjut (22nm ke bawah), para insinyur semakin banyak yang beralih ke penggabungan berbagai jenis data untuk memenuhi sasaran hasil dan kualitas. Contohnya meliputi:

  • Data riwayat alat dan hasil pengujian tingkat unit untuk menentukan akar penyebab permasalahan hasil;
  • Data tata letak fisik produk dan uji volume untuk meningkatkan kemampuan manufaktur;
  • Monitor sirkuit on-die dan data pengujian untuk menyetel batas kelulusan/kegagalan pengujian, dan
  • Inspeksi 100% dan data pengujian untuk mengoptimalkan biaya pengujian.

โ€œKeinginan untuk menggabungkan banyak sumber data dari berbagai aspek sudah menjadi hal yang lazim sejak lama. Ada korelasi langsung antara ketersediaan banyak sumber data berbeda untuk dianalisis dan pencapaian kualitas hasil yang lebih tinggi, karena ada lebih banyak data yang dapat Anda korelasikan untuk membantu mengisolasi masalah,โ€ kata Guy Cortez, manajer pemasaran produk di grup desain digital di Synopsys. โ€œNamun, hal yang menghambat pelanggan adalah ketidakmampuan mereka mengumpulkan semua data โ€“ dan jika mereka memiliki datanya, mereka akan memahami cara mengurai, menyelaraskan, menormalkan, menggabungkan, dan menumpuk data dalam jangka waktu yang wajar.โ€

Monitor on-die, yang menjadi lebih umum dalam aplikasi keselamatan dan misi penting, di mana perangkat diharapkan bekerja secara konsisten untuk masa pakai yang lebih lama, hanya menambah jumlah data yang dihasilkan.

โ€œSaat kami menerapkan solusi siklus hidup silikon, masalah manajemen data masih menjadi masalah yang nyata,โ€ kata Aileen Ryan, direktur senior strategi portofolio, solusi siklus hidup silikon Tessent di EDA Siemens. โ€œSekarang sudah banyak sumber datanya. Proses pembuatannya (termasuk uji pembuatannya) adalah satu. Namun monitor fungsional, struktural, dan parametrik yang tertanam dalam chip juga dapat mengumpulkan informasi selama tahap awal kemunculan dan debug, dan sepanjang masa pakai chip di lapangan.โ€

Tren penggabungan sumber data yang beragam ini juga dapat diamati pada teknologi yang sudah matang, yang umumnya memiliki ASP lebih rendah. Dalam teknologi ini, menggabungkan beragam sumber data memungkinkan para insinyur untuk merespons ekskursi hasil dengan lebih cepat dan mendapatkan tambahan hasil sebesar 2% hingga 3% pada pengujian akhir. Hal yang sama dapat diamati pada teknologi pengemasan yang maju dan matang.

โ€œFasilitas manufaktur yang canggih telah menggabungkan data untuk tujuan peningkatan operasional selama lebih dari 25 tahun. Ini bukanlah aktivitas baru bagi fasilitas manufaktur yang sukses. Dalam beberapa tahun terakhir, aktivitas ini telah menjadi arus utama karena perubahan kinerja dan kemajuan dalam kemampuan arsitektur untuk database berskala besar,โ€ kata Mike McIntyre, direktur manajemen produk perangkat lunak di Ke Inovasi. โ€œKarena database ini sekarang bisa melebihi 100 atau 200 terabyte, mereka masih efektif dalam mengambil data yang diminta secara tepat waktu. Alat yang membantu memproses dan membersihkan data sebelum dimasukkan ke dalam database, serta antarmuka yang dapat dinavigasi oleh pengguna umum untuk mengakses data ini, telah membantu menjadikan penyimpanan data yang besar ini semakin berharga.โ€

Pemberdaya teknologi informasi dan manufaktur cerdas
Insinyur selalu menghargai lebih banyak data, namun data tersebut harus memiliki konteks untuk memungkinkan pengambilan keputusan baik secara real-time maupun berbulan-bulan atau bahkan bertahun-tahun setelah pembuatannya. Penyimpanan data dan arsitektur basis data memberikan landasan di mana permintaan teknik dapat dibuat. Opsi komputasi juga mengikuti hal tersebut, dan mereka perlu mempertimbangkan jenis keputusan yang dibuat.

Keputusan-keputusan tersebut berkisar dari yang sederhana hingga yang kompleks, dan keputusan-keputusan tersebut meningkatkan tuntutan terhadap arsitektur komputasi. Analisis standar seperti bagan kendali proses statistik dan dasbor hasil membantu pemantauan umum operasi pabrik dan kesehatan produk. Yang lebih canggih lagi adalah kemampuan untuk menggabungkan sejumlah besar data pengujian dalam peta wafer, dan kemudian memungkinkan penelusuran untuk membedakan anomali dan tanda riwayat alat.

Selama lebih dari dua dekade, tim teknik telah mengandalkannya Mesin belajar untuk wafer dan paket pemeriksaan. Namun prospek untuk menghubungkan kumpulan data yang lebih beragam โ€” inspeksi, pengujian wafer, pengujian unit, riwayat alat โ€”lah yang mendorong para insinyur dan analitik data pemasok platform untuk menyelidiki lautan data dengan komputasi pembelajaran mendalam.

Untuk memenuhi ekspektasi kualitas dan keandalan yang tinggi, inspeksi 100% diperluas ke lebih banyak lapisan wafer dan langkah pemrosesan perakitan. Hal ini menghasilkan peningkatan signifikan dalam data yang perlu dikelola dan digunakan. Secara tradisional, para insinyur menggunakan data ini sebagai umpan balik untuk peralatan dan langkah pemrosesan tertentu. Sekarang mereka meneruskan data inspeksi untuk beberapa aplikasi guna meningkatkan keputusan lulus/gagal dalam pengujian.

Kontributor lain terhadap banjir data adalah adopsi IOT di pabrik dan streaming data sensor IoT berikutnya. Hal ini memungkinkan pemrosesan data secara real-time dan, karenanya, memberikan reaksi secara real-time terhadap anomali yang dirasakan.

โ€œDalam proses rekayasa depan wafer (misalnya, etsa, deposisi, deposisi lapisan atom) terdapat lebih banyak kemampuan pada perangkat tertanam, yang memungkinkan sumber daya komputasi diterapkan langsung pada pemrosesan data, streaming, dan integrasi. Hal ini dapat terjadi secara lokal, atau di dekat instrumentasi yang menghasilkan data, atau dikumpulkan bersama-sama di tempat yang lebih jauh,โ€ kata Eli Roth, manajer produk manufaktur pintar di Teradyne. โ€œPeningkatan bandwidth dan kemampuan komputasi edge mendukung analisis streaming. Analisis rangkaian waktu, dengan integrasi entitas yang berbeda dalam proses atau alur, memungkinkan koneksi dan kesimpulan diidentifikasi. Analisis preskriptif mengubah semua data baru yang saling berhubungan ini menjadi intelijen yang dapat ditindaklanjuti.โ€

Kunci untuk menghubungkan beragam data adalah integrasi dalam pengaturan pabrik.

โ€œPerubahan besar yang memungkinkan pelanggan kami menerima data produk end-to-end adalah integrasi pabrik dengan konektivitas alat/peralatan yang lebih baik, peralatan dan penguji yang lebih canggih yang menghasilkan lebih banyak data, dan solusi analitik berbasis cloud yang dapat diskalakan secara masif dan menawarkan harga lebih rendah. biaya penyimpanan data per terabyte dengan penyimpanan berkinerja lebih tinggi dan pengambilan data untuk analisis lebih cepat,โ€ kata Greg Prewitt, direktur solusi Exensio di Solusi PDF.

Di bagian belakang layanan perakitan dan pengujian, tim teknik juga memanfaatkan data sensor real-time IoT untuk menyesuaikan peralatan hilir. Meninjau data dari ratusan sel pengujian dengan visualisasi data meringankan beban dalam mengidentifikasi inefisiensi. Semua ini memerlukan lebih banyak investasi pada infrastruktur TI untuk penyimpanan, jaringan, dan komputasi.

โ€œContainer, Kubernetes, algoritme kecerdasan buatan, serta perangkat dan peralatan yang terhubung dengan sensor telah menjadi kemajuan teknologi utama baru-baru ini,โ€ kata George Harris, wakil presiden layanan pengujian global di Teknologi Amkor. โ€œMunculnya transmisi data dan arsitektur komputasi yang lebih tinggi (di sumber, edge, pusat data, dan cloud) bersama dengan prosesor khusus (CPU vs. DSP vs. GPU) dan memori/penyimpanan sangat penting untuk memindahkan dan memproses data yang tumbuh secara eksponensial. besarnya data.โ€

Penyimpanan cloud, komputasi awan, dan pembelajaran mesin diperlukan untuk mengatasi lautan data yang berasal dari beragam sumber data.

โ€œYang paling penting adalah platform analisis data yang dihosting di cloud yang memungkinkan data mendalam dari berbagai sumber, situs, dan geografi diunggah ke dalam satu data lake yang koheren dan terukur. Maka, pembelajaran mesin adalah cara terbaik untuk memproses dan menghasilkan wawasan yang bermakna dan dapat ditindaklanjuti dari kumpulan data yang besar ini,โ€ kata Nir Sever, direktur senior pemasaran produk di proteanTeks. โ€œPendekatan optimalnya adalah mengetahui apa yang harus dicari saat menghasilkan data. Jika data diekstraksi dengan mempertimbangkan analisis, hal ini akan memberikan gambaran yang lebih koheren tentang permasalahan yang ada.โ€

Yang lain setuju tentang perlunya mengekstraksi data dengan mempertimbangkan analisis. โ€œPenandaan tipe data tertentu menjadi penting seiring bertambahnya ukuran data,โ€ kata Melvin Lee Wei Heng, manajer aplikasi di Onto Innovation. โ€œSeberapa akurat dan cepat tag data dapat merujuk ke data menjadi penting seiring dengan bertambahnya ukuran data. Pemrosesan data yang mendekati waktu nyata dapat menjadi hal yang biasa di masa depan ketika data dikumpulkan.โ€

Tantangan dalam menggabungkan data
Kemajuan terkini dalam arsitektur komputasi, struktur database, dan teknologi penyimpanan data memungkinkan kombinasi tipe data yang berbeda. Namun hambatan operasional tetap ada untuk mewujudkan hal tersebut. Dua masalah umum adalah kurangnya format data standar pada peralatan perakitan dan kurangnya kepatuhan terhadap format data yang sudah ada STDF format untuk data yang dihasilkan ATE. Selain itu, fragmentasi rantai pasokan perangkat semikonduktor mempersulit pemanfaatan data dari berbagai sumber.

Permasalahan tersebut dapat diatasi, namun bukan tanpa upaya rekayasa yang membosankan. Meskipun ada beberapa standar untuk memindahkan data dari pabrik, perakitan, dan peralatan pengujian, tidak ada standar untuk konvensi penamaan (alias tata kelola data).

โ€œTantangan utamanya adalah kemampuan penamaan data. Misalnya ada yang menyebutnya WAT โ€‹โ€‹(wafer Acceptance test), ada yang menyebutnya WET (wafer electrical test), dan ada pula yang menyebutnya SST (scribe Structure Test),โ€ ujar Heng dari Onto. โ€œSelain itu, struktur format data merupakan tantangan besar. Karena pengemasan back-end menjadi semakin penting dalam rantai pasokan, masih belum ada struktur data format standar. Dan apa yang kami amati di pasar saat ini adalah banyak perusahaan berjuang dengan format keluaran yang berbeda dari banyaknya peralatan yang tersedia di dunia pengemasan back-end. Mengurai dan memformat data sebelum memuat ke dalam struktur database menjadi tugas umum yang diperlukan.โ€

Tantangan yang sering kali tidak terucapkan adalah tidak ada satu pun insinyur atau tim teknik yang memahami semua data di lautan luas yang disimpan secara lokal atau di cloud. Hal ini terutama berlaku pada model pengecoran/fabel. Pertimbangkan bahwa untuk rumah desain mana pun, perangkat IC mungkin memiliki setidaknya dua pabrik pengecoran dan dua OSAT yang memproduksi produknya. Menyelaraskan data antar pabrik sehingga rumah desain dapat melihat gambaran keseluruhan merupakan hambatan operasional karena masalah tata kelola data dan masalah keamanan data.

โ€œSalah satu tantangan utamanya adalah disagregasi industri dan peralihan ke aliran produksi kontrak. Dalam kasus ini, pihak-pihak yang berbeda memiliki alat yang menjadi sumber data, dan bukan semuanya berada di bawah 'satu atap' dalam model IDM yang dominan beberapa tahun lalu,โ€ ujar manajer penciptaan bisnis strategis Ken Butler di Amerika yang paling menguntungkan. โ€œBatasan-batasan baru ini menjadikan lebih sulit untuk mengintegrasikan sumber data dari berbagai pemain dan tetap menjaga keamanan informasi dan kekayaan intelektual setiap orang.โ€

Meskipun ekosistem fabel/pengecoran terus menunjukkan ketegangan dalam menjaga kekayaan intelektual proses dan desain, hal ini mulai berubah.

โ€œIDM memiliki keunggulan inheren, mulai dari lebih sedikit hambatan dalam berbagi data di seluruh domain desain, manufaktur, dan pengujian,โ€ kata Jay Almost, direktur senior kolaborasi strategis di KLA. โ€œTetapi terdapat insentif yang sangat besar bagi pengecoran logam untuk menemukan jalur ke depan dalam berbagi data pada tingkat perincian yang sesuai sehingga menjaga IP proses mereka, namun juga memungkinkan teknisi penguji untuk lebih memilih program pengujian yang sesuai untuk setiap perangkat yang masuk guna mengurangi kejadian pengecoran logam. cetakan dengan keandalan rendah lolos ke lapangan.โ€

Kesimpulan
Insinyur mendapat manfaat dari menghubungkan beragam sumber data di seluruh rantai pasokan manufaktur semikonduktor. Menggabungkan data dengan cara baru mendukung misi mereka untuk meningkatkan kualitas dan hasil, dan pada saat yang sama mengurangi biaya produksi.

Platform analitik untuk menghubungkan berbagai sumber data sudah ada saat ini. Namun mengelola lautan data manufaktur perangkat semikonduktor masih merupakan tugas yang tidak sepele. Hal ini terjadi bukan karena para insinyur tidak memiliki teknologi untuk menyimpan dan mengatur data. Hal ini lebih disebabkan karena menghubungkan data memerlukan keahlian domain untuk menentukan sumber data mana yang akan dihubungkan satu sama lain. Selain itu, terdapat masalah tata kelola data dan masalah keamanan data, yang menghambat para insinyur dalam menghubungkan beragam jenis data secara efektif dan efisien. Jadi tidak selalu ada integrasi yang mulus dari beragam tipe data, namun tim teknik terus berupaya untuk mencapai koneksi tersebut.

โ€œData mengarah pada pengetahuan, dan pengetahuan mengarah pada kemampuan seseorang untuk memecahkan masalah secara efektif,โ€ kata McIntyre dari Onto. โ€œPada dasarnya, inilah motivasi yang mendorong pelanggan kami untuk menggabungkan data yang awalnya sangat berbeda ke dalam penyimpanan data yang terorganisir. Tanpa kombinasi data ini, para insinyur di pabrik akan terhambat dalam memecahkan masalah sehari-hari mereka.โ€

Cerita Terkait:

Terlalu Banyak Data Hebat Dan Uji, Pemanfaatan Rendah
Untuk saat ini, pertumbuhan data yang dikumpulkan telah melampaui kemampuan para insinyur untuk menganalisis semuanya.

Masalah Data Mount Dalam Manufaktur Chip
Praktik data master memungkinkan teknisi produk dan teknisi TI pabrik menangani berbagai jenis dan kualitas data.

Awan Vs. Analisis Lokal
Tidak semua analisis data akan berpindah ke cloud, namun pemikiran tentang hal ini mewakili perubahan radikal.

Menjadikan Tes Transparan Dengan Data Lebih Baik
Bagaimana standar data pengujian baru dapat membuat area pengujian lebih mudah diakses secara real-time.

Pergeseran Besar Dalam Big Data
Mengapa pertumbuhan cloud dan edge computing serta pemrosesan lebih banyak data akan berdampak besar pada desain dan manufaktur semikonduktor.

Sumber: https://semiengineering.com/enablers-and-barriers-for-connecting-diverse-data/

Stempel Waktu:

Lebih dari Rekayasa Semikonduktor