Search

Let AI predict your process outcomes

대분류
기타
소분류
컨퍼런스 기록
설명
가우스랩스 - Simon Zabrocki님 세션
유형
SK AI SUMMIT
최종 편집 일시
2024/11/09 13:35
생성 일시
2024/11/05 01:07
14 more properties

칩 제조

아주 간단한 사실 몇 가지를 인정하는 것부터 시작하겠습니다.
Let's start by acknowledging some very simple facts.
칩 제조는 엄청나게 복잡한 제조 공정입니다. 아마도 자동차나 항공기, 심지어 로켓을 만드는 것보다 더 복잡할 것입니다. 그 이유는 SK하이닉스가 주력하는 메모리 칩 하나를 만드는 데 엄청난 수의 단계가 필요하기 때문입니다. 각 단계마다 수천 개의 단계가 있습니다.
Chip making is an incredibly complicated manufacturing process. It is probably more complicated than making cars, aircraft, perhaps even rockets. And the reason for that is that building a single memory chip, which is the kind of chip that SK Hynix focuses on, takes an enormous number of steps. There are thousands of steps, each of which.
구체적이고 복잡하며 고도의 물리학이 필요하고 아주 작은 규모로 이루어집니다. 너무 복잡하기 때문에 엔지니어는 실제로 항상 사물을 측정해야 합니다. 따라서 공정이 올바르게 진행되고 있는지 확인하기 위해 팹 전체에서 수만 개의 측정을 수행해야 합니다.
Is specific, complicated, requires advanced physics, and is done at a very, very small scale. Because it's so complicated, the engineers actually have to measure things all the time. So they are, you know, perhaps tens of thousands of measurements deployed throughout the fab to make sure that the processes are going correctly.
그리고 마지막으로, 여러분 모두 상상할 수 있듯이 팹에는 수많은 기계가 있고, 그 기계들이 생산을 합니다.
And then finally, as you can probably all imagine, a fab contains lots of machines, and those machines produce.
데이터, 모든 센서가 데이터를 생산합니다. 이것이 퍼즐의 첫 번째 조각입니다. 이것이 바로 대량 생산 환경입니다. 우리는 많은 기계와 많은 단계로 매우 큰 규모의 칩을 만들고 있습니다. 따라서 이것은 복잡한 문제입니다. 하지만 정확한 ID를 얻는 것이 어떻게 생겼는지 좀 더 정확하게 살펴봅시다. 팹 내부의 한 단계가 이렇게 생겼습니다.
Data, all the sensors produce data. So this is the first piece of the puzzle. This is the high volume manufacturing environment. We're building chips at a very large scale with many machines and many steps. So this is a complicated problem. But let's look more precisely at what it looks like to get a precise ID. This is what a step looks like inside a fab.
웨이퍼라고도 하고 기판이라고도 하는 회색 디스크가 있습니다. 여기에서 칩이 만들어집니다.
You have those grey disks which are called wafers, sometimes also called substrates. This is where the chips are going to be built.
일반적으로 칩은 기판에서 일부 작업을 수행하는 처리 장비로 순차적으로 이동합니다. 예를 들어, 일부 재료를 증착하고, 일부 재료를 제거하고, 칩에 새겨야 하는 패턴을 생성합니다. 그 후 다음 단계로 넘어가고 이렇게 1000번을 반복하지만 각 단계는 매우 다릅니다. 이 가공 장비에서는 작업 방식이 다르기 때문에 매우 복잡합니다.
Usually what happens is that they go in sequence into what's called processing equipment, which will do some operation on that substrate. For instance, it's going to deposit some material, it's going to remove some material, it's going to create some patterns that the chips need to have engraved upon. Afterwards, it goes on to the next step and this goes on like this 1000 times, but each step is very different. The operation is going to be different in this processing equipment, which makes it very complicated.
따라서 엔지니어는 이를 제어할 수 있도록 계측 장비를 사용합니다. 계측이란 간단히 말해 측정을 의미합니다. 엔지니어는 공정 기판 중 하나를 가져와서 그 기판의 특성을 살펴보고 공정이 잘 진행되고 있는지 여부를 결정합니다. 데이터 과학자라면 데이터 생성 프로세스에 대해 궁금해하실 것입니다.
So to make it controllable, the engineers have what we call metrology equipment. Metrology simply means measurements. They're going to take one of the process substrates and they're going to look at the properties of that substrate and decide whether the process is going on well or not. Now, if you're a data scientist and you are curious about the data generation process, you can imagine that.
처리 장비가 센서 데이터를 생성하기 때문에 엄청난 양의 데이터를 얻을 수 있습니다.
You get tons of data because the processing equipment is going to generate sensor data.
우리는 측정 데이터를 갖게 될 것이고 이 모든 것을 이해해야 합니다. 이것은 엄청난 규모입니다. 처리 장비와 계측 장비의 종류가 엄청나게 다양합니다. 따라서 한 개인이 이 모든 것을 이해하는 것은 불가능합니다. 각 단계마다 해당 장비를 이해하고, 보정하고, 작동하는 현장 엔지니어 전문가가 있어야 합니다. 따라서 한 사람이 팹에 대한 전체 그림을 그릴 수는 없습니다.
We're going to have measurement data and we need to make sense of all of this. This is a huge scale. There is a huge diversity of processing equipment and of metrology equipment. And so this is beyond comprehension of any single individual. For each of those steps, you have, you know, field engineer specialists that are responsible for understanding, calibrating, operating those machines. So a single human cannot have a full picture of the fab.
그리고 이것은 큰 문제입니다.
And this is a huge problem.
엔지니어의 가시성은 본질적으로 제한적이기 때문입니다. 이전 그림으로 돌아가면 팹 내부를 측정하는 것은 복잡하기 때문에 각 처리 단계가 끝난 후 모든 것을 측정할 수 없다는 것을 알 수 있습니다. 시간, 공간, 비용, 노력이 필요하기 때문입니다. 따라서 엔지니어는 팹을 가동하기 위해 엄격하게 필요한 최소한의 것만 측정합니다.
Because engineers have essentially only limited visibility. If you go back to the picture before, you can notice that after each processing step we are not going to measure everything, because measuring things inside of a fab is complicated. It takes time, it takes space, it takes money, it takes effort. So engineers only measure the strictly required minimum to get the fab running.
따라서 가시성이 제한적이고 결과적으로 제조 공정을 완전히 관찰하고 제어할 수 없습니다.
So they only have limited visibility and as a result, they cannot fully observe and control the manufacturing process.
수율과 공정 장비를 완벽하게 관리할 수도 없습니다.
They cannot fully manage yield and process equipment.
효율적으로 관리할 수도 없습니다. 간단한 비교를 위해 고도와 속도에 접근할 수 있는 시간이 5~10%에 불과한 항공기를 조종하는 기장을 상상해 보십시오. 여러분은 아마 그 항공기에 탑승하고 싶지 않을 것입니다. 칩 제조도 마찬가지입니다.
As efficiently as they should. So to take a simple comparison, you could imagine a captain flying an aircraft that has access to altitude and speed maybe only 5 or 10% of the time. You probably would not want to get on that aircraft. It's sort of like the same thing for chip manufacturing.
보다 근본적으로 물리학자 켈빈 경의 긴 인용문을 보면 사물을 측정할 수 없다는 것이 사실 근본적인 문제라는 것을 알 수 있습니다. 무언가를 숫자로 표현할 수 없다면 그 현상에 대해 아주 부분적인 이해만 할 수 있기 때문에 근본적인 문제입니다.
More fundamentally, if we look at this lengthy quote from the physicist Lord Kelvin, you can realize that not being able to measure things is actually a fundamental problem. It's a fundamental problem because if you cannot express something in numbers, you only have a very partial understanding of that phenomenon.
이를 간단히 표현하면 측정할 수 없으면 개선할 수 없다고 말할 수 있습니다.
If we put it in shorter form, we can say that if you cannot measure it, you cannot improve it.
이제 우리는 더 나은 그림을 얻기 시작했습니다.
So now we're starting to get a better picture, we have the.
엄청나게 복잡한 데이터를 생성하는 대량 생산 공장인 팹에서는 엔지니어들이 프로세스에 대한 가시성을 높이고 싶어 하지만 항상 모든 것을 측정할 수 없기 때문에 그렇게 할 수 없습니다.
The fab, the high volume manufacturing fab that generates this immensely complicated data, we have the engineers that want to have more visibility into the process, but they cannot do so because they cannot measure everything all the time.
바로 이 점이 AI가 필요한 이유입니다. 지난 10여 년 동안 우리가 배운 것이 있다면, AI 시스템, 머신러닝 시스템은 복잡한 데이터에서 인간이 할 수 없는 패턴을 찾는 데 매우 능숙하다는 것입니다.
And so this is where AI comes in. If we've learned something for the past decade or so, it's that AI systems, machine learning systems are very good at finding patterns in complex data where humans cannot.
따라서 우리에게는 문제와 해결책이 있습니다. 엔지니어에게는 완전한 가시성이 필요하다는 것입니다. 문제는 모든 것을 측정할 수 없다는 것입니다. 따라서 잠재적인 해결책은 측정할 수 없는 것을 예측하기 위해 AI를 사용하는 것이 아닐까요?
So we have an either problem and a solution. The need is that engineers need this full visibility. The problem is that we cannot measure everything. So a potential solution is why not let's try to use AI to predict what is not measured?
이것이 바로 가우스 랩스가 해결하고자 하는 문제입니다.
And this is the problem that Gauss Labs solves.
이것은 본질적으로 AI 작업, 머신 러닝 작업이며 이것이 바로 AI 기반 계측의 핵심입니다. 이것이 바로 가상 계측의 핵심이며 가우스 랩에서 개발한 주요 솔루션입니다. 노련한 데이터 과학자나 머신 러닝 엔지니어라면 다른 머신 러닝 작업과 비슷하다고 생각할 수 있습니다.
This is essentially an AI task, a machine learning task, and this is what AI-based metrology is about. This is what virtual metrology is about and this is the main solution that we developed at Gauss Labs. Now if you're a seasoned data scientist or machine learning engineer, you may think that you know, it's just like any other machine learning task.
하지만 숙련된 과학자, 데이터 과학자라면 앞서 살펴본 것처럼 많은 AI 모델과 많은 머신 러닝 솔루션이 가치를 제공하지 못하며 각 문제마다 고유한 과제가 있다는 것을 알고 있을 것입니다. 이제 가상 계측에 대한 문제를 살펴보겠습니다. 반도체 칩 공장 내부에서 머신러닝 모델을 운영해야 하는 이유는 무엇일까요?
But if you're also an experienced scientist, data scientist, you will know that as we've seen earlier, a lot of AI models, a lot of machine learning solutions fail to deliver value and each problem has its own challenges. So let's go over the one for virtual metrology. What makes operating machine learning models inside of a semiconductor chip factory?
다른 머신러닝 과제에 비해 더 복잡하거나 더 까다롭습니다.
More complicated or more complicated compared to other machine learning challenges.
우선, 지금쯤이면 이해하셨겠지만 복잡성이 엄청나게 높습니다. 모든 단계가 있고, 모든 장비가 있고, 모든 물리적 프로세스가 아주 작은 규모로 이루어집니다. 이 모든 것을 포괄할 수 있는 하나의 큰 모델로는 불가능합니다. 예를 들어, 방대한 양의 텍스트를 모델에 덤프하고 모델이 이를 학습하도록 하는 LLM에 매우 효과적인 방식을 그대로 사용할 수는 없습니다. 여기서는 실제로 어떻게 구성할 것인지에 대해 조금 더 생각해야 합니다.
First of all, as you probably understand by now, the complexity is enormous. We have all the steps, we have all those equipments, we have all those physical processes happening at a very tiny scale. We cannot have one big model to cover them all. We cannot just do, you know, the same thing that works very well for LLM, for instance, where you just essentially dump enormous amounts of text into a model and let it learn from it. Here you need to actually think a little bit about how you're going to organize.
이는 모델에 대한 도전입니다. 두 번째 문제는 역설적이게도 데이터가 부족하다는 것입니다. 센서 데이터는 엄청나게 많지만 제조되는 대상에 대한 정말 흥미로운 데이터는 매우 부족합니다. 앞서 말했듯이 우리는 완전한 가시성을 확보하지 못하고 있습니다. 이것이 바로 우리가 해결하고자 하는 문제입니다. 따라서 당연히 모델 학습에 사용할 수 있는 측정값이 거의 없습니다. 세 번째 과제는 변화입니다.
It's a challenge with your models. The second problem is that, paradoxically, there is a scarcity of data. We have enormous amounts of sensor data, but the really interesting data about the object that's being manufactured is very scarce. As I said earlier, we don't have full visibility. This is the problem that we're trying to solve. So of course, we only have very few measurements to use to train our models. The third challenge is changes.
FAB는 매우 복잡한 환경입니다.
In a FAB, which is an extremely complicated environment.
기본적으로 매주, 심지어 매일매일 상황이 항상 바뀝니다. 한 주에는 특정 팀이 장비를 작동하고 다음 주에는 다른 팀이 그 장비를 작동할 수 있습니다. 장비가 고장날 수도 있고 재보정이 필요할 수도 있습니다. 그리고 데이터 생성 프로세스의 측면에서 이러한 각각의 작업 또는 이러한 작업이 기본 데이터의 배포를 완전히 바꿀 것이라고 상상할 수 있습니다.
Things change all the time, basically on a weekly, even on a daily basis. On one week a certain team is going to operate on equipment, the next week another team is going to operate that equipment. Perhaps a machine will break down, perhaps a machine will be recalibrated. And you can imagine in terms of data generation process that each of those, you know, operations or those actions will completely change the distribution of the underlying data.
따라서 정적 데이터로 모델을 순진하게 학습시키면 데이터 분포가 바뀌면 금방 쓸모없게 되므로 적응형 모델이 필요합니다.
So you need to have an adaptive model because if you naively train a model on static data, it will quickly become obsolete as the data distribution changes.
XGBoost 모델 또는 구현한 최신 신경망을 특징으로 합니다. 일주일 동안은 작동하다가 2주 후에는 예측이 완전히 틀릴 수 있습니다. 따라서 이것은 아마도 가장 복잡한 과제일 것입니다. 마지막으로, 많은 머신 러닝 문제에서 공통적으로 나타나는 문제는 규모입니다. 수천 개의 단계가 있습니다. 각 단계는 시계열 데이터, 실제로는 시계열 데이터의 시계열을 생성합니다.
Feature your XGBoost model or the latest neural network that you've implemented. It will work for a week and then in two weeks the prediction will be completely off. So that's an enormous, perhaps the most complicated challenge. And then finally, a challenge which is common in many machine learning problems is the scale. We have thousands of steps. Each step creates time series data, actually time series of time series data.
다양한 샘플링 속도로.
With various sampling rates.
그리고 샘플링 빈도가 다양하기 때문에 Jupyter 노트북에서 열어 분석을 시도할 수 없는 데이터를 얻게 됩니다. 일종의 확장 가능한 컴퓨팅이 필요합니다.
And sampling frequencies, and so you get data that you cannot just open in your, let's say Jupyter notebook and try to do some analysis with. You need to have some sort of scalable computing.
그래서 가우스 연구소는 이 문제를 해결하기 위해 Panoptes VM, 즉 가상 계측을 구축했습니다. 그래서 여기 아주 간단한 다이어그램을 통해 모든 사람이 이해할 수 있도록 요약해 보겠습니다. 센서 데이터와 과거 측정값이 있습니다. 이는 본질적으로 팹에서 생성되는 모든 데이터입니다. 예측 모델이 있고 가상 측정값을 출력하고 있죠? 엔지니어들이 관심을 갖는 것은 바로 이 부분입니다.
So this is why Gauss Labs actually built Panoptes VM, so Panoptes virtual metrology to solve this problem. So here is a very, very simple diagram to recap and make sure everybody's following. We have the sensor data and the past measurements. That's essentially all the data that's generated by the fab. We have our predictive model and we output some virtual measurements, right? The thing that the engineers are interested about.
예를 들어 공정 엔지니어라면 두께, 굴절률, 임계 치수, 기울기, 휨 등에 대해 잘 알고 있을 것입니다.
For instance, if you're a process engineer, you may be familiar with, you know, thickness, refractive index, critical dimension, tilt, warpage, etc.
팬옵스 VM의 목적과 이유는 바로 이러한 복잡성, 희소성, 대규모 변화를 해결하기 위해서입니다. 따라서 다른 자동 머신러닝 솔루션과 비교할 수 있습니다. 목적에 특화된 머신러닝 솔루션에 가깝습니다.
And the purpose, the reason of Panoptes VM is that it solves the complexity, the scarcity, the changes at scale. So it's not just like any, you know, we could make a comparison with other auto ML solutions. It's more of a purpose-specific machine learning solution.
먼저 복잡성과 희소성을 살펴볼 수 있습니다. 이 팹에는 다양한 종류의 장비와 매우 다양한 종류의 데이터 세트가 있으며, 모두 조금씩 다르기 때문에 단일 모델로 모든 것을 처리할 수는 없습니다. 물론 팹 내의 각 장비와 각 단계에 별도의 모델을 적용하는 것도 또 다른 문제가 될 수 있습니다.
We can start by looking at the complexity and the scarcity. Remember we have this fab with many different kinds of equipment, very different kinds of data sets, all of which are slightly different, and a single model cannot tackle them all. But of course, it would be also another problem to try to, you know, fit a separate model on each of the equipment and each of the steps within the fab.
그래서 저희는 통합 모델링이라는 것을 개발했습니다.
So we developed what's called aggregate modeling where you can.
몇 가지 단계, 몇 가지 장비를 스마트한 방식으로 집계하여 더 큰 데이터 세트를 만들 수 있는 스마트한 방법 또는 명확하지 않은 방법으로 집계할 수 있습니다. 예를 들어 100개의 데이터 집합이 있고 100개의 포인트가 있는 10개의 데이터 집합이 있다면 이를 집계하여 1,000개, 예를 들어 1,000개의 포인트를 얻을 수 있습니다. 그런 다음 모델을 맞추면 모델이 훨씬 더 나은 성능을 발휘할 수 있습니다. 그리고 다양한 규모에서 이를 수행할 수 있습니다. 따라서 매우 큰 데이터 세트를 만들 수 있습니다.
Take some steps, some equipment and aggregate them in smart, we could say smart ways or non-obvious ways to create a larger data set. So perhaps you will have, you know, 100, you will have 10 data sets with 100 points and you can aggregate them to get maybe 1,000, yeah, 1,000 points for instance. And then you can fit your model and your model will perform much, much better. And you can do that at various scales. So you can end up with very, very large data sets.
예를 들어 순진한 접근 방식을 취했을 때보다 훨씬 더 나은 성능을 발휘할 수 있습니다.
Which will perform much better than if you had taken, for instance, the naive approach.
이 접근 방식의 또 다른 장점은 짐작할 수 있듯이 희소성 문제가 있다는 것입니다. 데이터를 집계할 수 있다면 더 큰 데이터 세트를 얻을 수 있습니다. 따라서 이 집계 모델은 이 문제도 해결합니다. 이제 기술적인 세부 사항에 관심이 있으시다면 전체 세션의 주제가 될 수 있으므로 제공된 참고 자료를 확인하실 수 있습니다.
The other benefit of this approach, as you can guess, is that we said there is a scarcity problem. If you can aggregate things, you get better and bigger data sets. And so this aggregate model also solves this issue. Now if you're interested in the technical details, this could be the topic of a full session on its own, so you can check the references provided.
앞서 언급했듯이
As I mentioned earlier.
문제 중 하나는 팹 내부에서 변경이 발생하는 속도입니다.
One of the problems is the rate at which changes occur inside the fab.
앞서 언급했듯이 문제 중 하나는 팹 내부에서 변화가 발생하는 속도입니다. 이 문제를 해결하기 위해 저희는 적응형 온라인 학습이라는 자체 방법을 개발했습니다. 이 방법의 전체 목적은 알고리즘 설계를 통해 팹 내부의 변경 사항을 자동으로 처리하는 것입니다. 일반적인 해결책은 몇 가지 휴리스틱을 사용하여 모델을 정기적으로 재훈련하는 것입니다. 여기서 적응력은 실제로 모델 내에 내장되어 있습니다.
As I mentioned earlier, one of the problems is the rate at which changes occur inside the fab. How we solve this again is we, you know, developed our own method called adaptive online learning. And the whole purpose of this method is to automatically and sort of like by algorithmic design, handle the changes inside the fab. The typical solution is going to be to regularly retrain your model with some heuristics. Here the adaptivity is actually built in within the model.
즉, 센서 데이터와 과거 측정값을 기억하는 입력 데이터와 측정값인 타깃이 있다는 것을 알 수 있습니다. 그리고 시간에 따른 정규화를 수행하여 모든 데이터를 안정적인 분포로 가져올 것입니다. 예를 들어 시계열에서 계절성을 제거한다고 생각할 수 있습니다. 정확히 같지는 않지만 본질적으로 같은 개념입니다.
And so the way you can see it is you have your input data, which is going to be, remember the sensor data, maybe past measurements, you have your targets, which are the measurements. And you're going to do some time-dependent normalization to, you know, bring all the data into some, you know, stable distributions. So you can think of it as, you know, removing seasonality, for instance, in time series. It's not exactly the same, but it's essentially the same idea.
보다 안정적인 데이터가 확보되면 이를 적응형 온라인 학습 모델에 적용할 수 있습니다.
Once we have data that is more stable, we can then feed it into our adaptive online learning model.
그런 다음 적응형 온라인 회귀 모델에 데이터를 입력할 수 있습니다. 이 회귀 모델은 데이터의 갑작스러운 변화에 적응할 것입니다. 따라서 앞서 말했듯이 때로는 기계가 다르게 보정되어 입력과 출력 간의 관계가 완전히 바뀔 수 있습니다. 그리고 이러한 종류의 알고리즘은 실제로 이러한 변화를 매우 효과적으로 포착할 수 있습니다. 이제 아주 간략하게 설명하겠습니다.
We can then feed it into what's called an adaptive online regressor. And this regressor is going to adapt to sudden changes in the data. So as I said earlier, sometimes the machine is going to be calibrated differently and this is going to completely change the relationship between the input and the output. And those kinds of algorithms can actually capture those changes very effectively. Now you can very briefly.
본질적으로 아이디어는 이렇습니다.
Essentially the idea is that.
녹색 곡선이 우리가 예측하고자 하는 것이고 빨간색 곡선이 우리의 솔루션입니다. 물론 이것은 합성 데이터이지만 아이디어를 얻을 수 있습니다. 200시간 전후로 큰 변화가 일어나기 전에는 모든 모델이 잘 작동하는 것을 볼 수 있습니다. 오프라인 모델을 훈련하는 데이터 과학자라면 그렇게 할 수 있지만, 갑자기 점프가 일어납니다. 회색 곡선과 보라색 곡선이 새로운 추세를 따라가지 못하고 있음을 알 수 있습니다.
You know, the green curve is what we're trying to predict and the red curve is our solution. Of course, this is synthetic data, but it gives you the idea. You can see before the big shift around the 200 timestamp, all the models are performing well. That's what you would do as a data scientist training an offline model, but then suddenly a jump happens. You can see that the grey curve and the purple curve simply are not following up with the new trend.
따라서 패널 테스트는 적응형 온라인 학습을 통해 이 문제를 해결합니다.
So panel tests solve this problem through adaptive online learning.
마지막으로
Finally.
패널 테스트는 적응형 온라인 학습을 통해 이 문제를 해결합니다. 마지막으로 팬옵스 VM은 확장성을 어떻게 처리하나요? 지금까지는 대부분 이론적이거나 개념적인 이야기였습니다.
So panel tests solve this problem through adaptive online learning. Finally, how does Panoptes VM handle scale? Because up until now what we've talked about is mostly we could say theoretical or conceptual.
하지만 아시다시피, ML 프로젝트를 진행해 본 적이 있다면 솔루션을 확장하고 배포하고 안정적으로 만드는 것이 과제 중 하나라는 것을 알게 될 것입니다. 노트북이나 스크립트에서 분석을 코딩하는 것과 특정 데이터 세트에서 잘 작동하는 모델을 만드는 것은 별개의 문제입니다. 하지만 항상 안정적으로 작동하는 전체 시스템을 구축하는 것은 완전히 다른 문제입니다.
But as you know, if you have been working on any ML project, you will realize that one of the challenges is to scale the solution, to deploy it, to make it reliable. It's one thing to, you know, code something up an analysis in a notebook or on a script and you know, have some model that performs well on the specific dataset. But it's a completely different thing to have a full-on system that is going to work reliably all the time.
데이터 과학 또는 머신 러닝 프로젝트의 일반적인 설정은 한 가지 문제가 발생한다는 것입니다.
The typical setup for data science or machine learning projects is that you will have one problem.
하나 또는 몇 개의 모델, 데이터 집합, 데이터 과학자가 있고 반복이 있을 것입니다. 데이터 과학자는 데이터를 수집하고, 모델을 학습시키고, 결과를 살펴보고, 배포하고, 피드백을 받고, 데이터를 정리하고, 새로운 기능을 만드는 등 고객이나 최종 사용자가 결과에 만족할 때까지 다시 수작업을 하는 등의 작업을 반복할 것입니다. 이제 처음부터 기억하시겠지만, 우리는 대량 생산 환경에 있습니다. 수천 개의 단계가 있으므로, 만약 여러분이 ...
You will have one or a few models, data sets and a data scientist and there will be some iteration, right? The data scientist is going to collect the data, train the model, look at the results, maybe deploy it, get some feedback, do some again manual operation to maybe cleanse the data, maybe create some new features, etc. and so on until you know the customer or the end user is happy with the results. Now if you remember from the beginning, we are in a high volume manufacturing environment. There are thousands of steps, so if you were to take...
이러한 경로에는 기본적으로 최소 1000명의 데이터 과학자가 필요하며, 이는 당연히 확장성이 떨어지고 비용이 매우 많이 들며 본질적으로 AI를 사용하여 작업을 자동화하는 목적에 맞지 않겠죠? Panoptes VM의 작동 방식은 데이터 과학자나 현장 엔지니어가 실제로 데이터 과학자가 될 필요가 없도록 최대한 자동화하는 것입니다. 기본 모델이나 데이터 과학의 어떤 주제에 대해서도 잘 모르는 사람일 수도 있습니다.
These routes you would need basically at least 1000 data scientists, which of course is not scalable, is extremely expensive and essentially defeats the purpose of using AI to automate things, right? The way Panoptes VM works is that we automate things as much as possible so that a single data scientist or a field engineer actually doesn't have to be a data scientist. It can be somebody that doesn't understand much about the underlying model or any topics of data science.
제조 공정의 특정 영역을 담당하는 현장 엔지니어 한 명이 10개, 20개 또는 50개의 모델을 설정하여 자신의 특정 분야에서 실제로 무슨 일이 일어나고 있는지 이해할 수 있을 것입니다. 그리고 하이퍼파라미터 최적화, 데이터 수집 등에 대해 걱정할 필요가 없습니다. 어떤 의미에서는 자동화에 가깝다고 할 수 있습니다.
A single field engineer, maybe responsible for a very specific area of the manufacturing process, is going to be able to set up 10, 20, or 50 models to actually understand what's going on in his specific field. And he's not going to have to worry about hyperparameter optimization, data collection, or any of those things. So in a sense, it's quite close to automation.
일부 자동화된 머신 러닝 솔루션은 목적에 따라 다르지만, 이 솔루션은 매우 복잡하고 매우 특수한 환경의 특수성을 고려해야 합니다.
To some automated machine learning solution, but again, it's purpose-specific and it really takes into account the specificity of this very complex and, again, very specific environment.
물론 콘텐츠 개념을 이해하려면 많은 이야기가 필요하지만, 이 모든 것의 실제 결과는 무엇일까요? 이것이 실제로 효과가 있을까요? 이것이 실제로 엔지니어에게 어떤 가치를 가져다줄까요? 이에 대한 몇 가지 증거가 있습니다. 예를 들어, SK하이닉스의 박막 공정 엔지니어의 증언에 따르면 Panoptes VM을 APC와 같은 공정 제어에 연결하면 공정 변동성이 감소하고 수율이 증가한다고 합니다.
Now, of course, it's a lot of talk to understand, you know, the content concepts, but what is the actual outcome of all this? Does this actually work? Does this actually bring any value to the engineers? And we have some evidence of this. So here, for instance, we have a testimony from a thin film process engineer at SK Hynix, which tells us that, you know, when Panoptes VM is connected to a process control such as APC, process variability decreases and yield increases.
앞서 가시성이 제한적이라는 문제 제기를 기억하신다면, 가시성 제한이 해결된 것입니다.
So if you remember the problem statement that we had earlier where you know we have limited visibility, limited visibility is addressed.
따라서 엔지니어는 제한된 가시성 때문에 공정을 제어할 수 없지만, 팬옵스 VM을 APC에 연결하면 공정 변동성이 감소하고 수율이 증가합니다. 문제가 본질적으로 해결된 것을 알 수 있지요? 문제점을 말씀드리고 해결책을 제시했습니다. 여기에서 정확한 수치와 함께 몇 가지 세부 사항을 확인할 수 있습니다. 너무 구체적인 내용을 말씀드리고 싶지 않았어요.
So engineers cannot control the process because of limited visibility, but with Panoptes VM connected to APC, process variability decreases and yield increases. We can see the problem is essentially solved, right? We stated the problem and delivered the solution. You can check out some details with accurate numbers here. I didn't want to bury you under very specific details.
자세한 내용을 살펴볼 수 있도록 숫자로 설명했습니다.
Numbers so you can look into the details.
Panoptes VM의 매우 흥미로운 점은 가시성이 매우 제한적인 상태에서 진행 상황을 완전히 파악할 수 있는 상태로 전환할 수 있게 되면 수많은 가능성이 생긴다고 상상할 수 있다는 것입니다. 다시 한 번 비행기를 조종하는 조종사와 비교해보면, 아주 정밀한 계기를 가지고 있지 않고 그냥 눈에 보이는 대로 비행하는 경우와 같은 방식으로 비행할 수 없습니다. 여기에서도 마찬가지입니다.
What's very interesting with Panoptes VM is that you can imagine that when you're able to go from a state where you have very limited visibility to a state where you have full visibility on what's going on, you have lots and lots of possibilities, right? Just like again, if you take the comparison from before with, you know, the pilot flying his airplane, he cannot fly the same way if he doesn't have very precise instruments and if he's just flying, you know, at sight. Here is exactly the same.
엔지니어를 위해 확장 가능하고 정확하며 사용 가능한 시스템을 생산할 수 있기 때문에 가능한 일입니다.
Things are possible because we are able to produce scalable, accurate, and usable systems for engineers.
엔지니어는 이러한 가상 측정을 통해 앞서 말했듯이 공정 변동성 감소, 편차 감지, 즉 문제가 발생하기 전에 문제를 찾아내는 것, 다양한 도구의 상태를 다시 확인하는 도구 모니터링, 수율 분석 등 다양한 작업을 수행할 수 있습니다.
Engineers can do a lot of various things with those virtual measurements such as, you know, as we said earlier, reducing the process variability, excursion detection, which means essentially finding problems before they happen, tool monitoring again, which is, you know, checking the status of the various tools, yield analysis.
속도 최적화와 같이 리소스를 최대한 잘 사용하고 있는지 확인하는 것, 즉 팹 내부에서 실제로 측정하는 방법을 최적화할 수 있다는 것을 의미합니다. 마지막으로 동적 샘플링입니다.
Making sure that they're using the resources as best as possible, something like rate optimization, meaning that you know, they can actually optimize how they measure things inside the fab. And finally, dynamic sampling.
이 모든 것의 결론은 무엇일까요? 해결할 가치가 있는 문제일까요? 앞서 살펴본 바와 같이 실제로 가치를 제공하는 AI 프로젝트는 거의 없으며, 때로는 처음부터 그 이점을 과소평가하기 때문이기도 합니다. 모든 문제를 AI로 해결할 수 있는 것은 아니며, AI로 해결할 수 있는 모든 문제가 실제로 가치가 있는 것도 아닙니다. 하지만 여기에는 처음부터 다음과 같은 강력한 증거가 있습니다.
What is the bottom line of all this? Is this a problem worth solving? As we've seen earlier, there are very few AI projects that actually deliver value, and sometimes it's because the benefits are underestimated from the get-go. Not everything can be solved through AI, and not everything solvable through AI is actually worthwhile. But here, from the beginning, we have strong evidence that...
예를 들어 비교해보면 이런 경우가 있습니다.
This is a case if you compare for instance.
평균 가상 계측 솔루션은 물리적 계측 장비보다 훨씬 저렴합니다.
Our solution with an average virtual metrology cost far less than physical metrology equipment.
약 2백만 달러 정도입니다. 팹에는 수백, 수십 대의 계측 장비가 있습니다.
It's around 2 million. There are, you know, hundreds and dozens of metrology equipment within a fab.
따라서 이는 엄청난 금액이며 계측 시장은 다시 매우 큽니다. 칩 제조의 규모가 워낙 크기 때문에 AI를 통해 아주 작은 변화를 일으킬 수 있다면, 이를 통해 많은 금전적 이점을 얻을 수 있습니다.