본문 바로가기
책갈피

반도체 시장을 뒤 엎을 핵심 기술.jpg

GravityNgc |2023.03.09 06:26
조회 94 |추천 0

 

반도체 시장을 혁신시킬 핵심 기술,


그것은 0.01나노를 현실화 할 수 있는 기술이지.


바로 빛의 크기를 줄이는것, 터널링 효과를 막는것,


빛의 크기는 빛의 밀도를 낮추고, 축소 배율렌즈로 축소 배율만 높이면 되는거야.


렌즈 필터를 통해서 1/100만으로 빛의 밀도를 줄이고, 자기장 축소 배율 렌즈로


100만배 작게 만드는거야.


1나노의 빛이 100만배가 작아진다는거야.


그러면 0.000001나노가 되는거지.


물리적으로 이론적으로 0.0000001나노는 가능해.


이것을 현실화 할 핵심 기술도 개발이 끝났지.


그런데 저장 장치의 경우 20나노 이하로 소자를 줄이면, 터널링 효과가 계속 발생해,


누설 전류가 발생한다는거였지.


난제였는데, 이것도 해결됐어,


미세화 되는 과정에서 누설전류가 발생하는 원리는 전자의 크기가 작아지면서,


산화막의 밀도가 낮아 그 안에서 새어난거지.


그래서 웨이퍼 위에 밀도가 6000배~9000배 높은 그래핀으로 코팅하고, 


그래핀 산화막을 건식으로 만드는거지.


그러면 터널링 효과가 발생하지 않아.


현재 20나노를 2나노로 바꾸게 되면, 전성비가 매우 높아지겠지.


그뿐만 아니라, 처리 반응 속도도 빨라져,


SSD 같은 경우도, 용량이 커지면 SSD의 속도가 느려지는 이유가 무엇일까?


128G가 512G랑 같은 속도인데, 512G가 용량을 많이 쓰면 느려지는거야.


이것은 처리 영역이 커지면서 멀리 있는 데이터를 불러오는데, 시간이 걸리기 때문이지.


그래서 멀티 컨트롤러로 컨트롤러를 추가 설치해서, 영역 할당을 다르게 한거지.


쉽게 말하면 CPU가 1개로는 느리닌깐, CPU를 4개로 늘려놓고, 


CPU 마다 각각 데이터 영역을 할당 해놓은거야.


1번 데이터 셀은 1번 CPU가 2번 데이터 셀은 2번 CPU가,


독립적으로 처리 해서 속도를 높인거지. 


반도체 업계의 저장 장치 20나노의 한계 안에서 발전해왔던거야.


그런데 2나노가 되어도 누설전류가 발생되지 않을 핵심 기술이 개발된거지.


여기서 빠르다는 의미와 개념에서 차이가 있는데,


1MB 파일을 불러들인다고 가정해보면, 최신 SSD나 일반 SSD나 크게 의미가 없어,


그냥 대역폭의 문제일뿐인거야. 쓰기,읽기 속도를 높이려면,


대역폭만 늘리면 되는거지. 


1G정도 되는 파일을 불러들일때 대역폭에 따른 속도 차이가 발생하겠지.


그런데 여기서 20나노가 2나노가 되면 엄청난 변화가 있어.


크기가 짧아지만 만큼 전성비가 상승하고, 거리가 짧아진 만큼 속도도 빠르지.


크기가 10배가 작아지면, 전자가 이동하는 거리가 10배 짧아지는거야.


당연히 처리 속도가 빨라질수밖에 없는거지.


그리고 저장 장치의 경우 20나노보다 작게 만들게 되면, 누설 전류로 인해서,


일정 시간이 지나면 오류가 발생하거나, 데이터가 날라가는 현상이 발생했어, 


그래서 20나노의 소자를 더 많이 이어 붙이거나 위로 세워서, 


10나노급으로 만들었던거야. 10나노와 같은 성능을 낸다. 


하지만 여기서도 거리가 멀어서 속도차이가 생기닌깐, 


영역을 나눠, 컨트롤러를 추가로 넣은거지.


0.01나노가 10년안에 현실화 된다면 ASML의 회사 가치는 어느정도로 높아질까,


그리고 당장 20나노의 모든 저장장치 반도체를 2나노로 바꿀수있어.


추천수0
반대수0

공감많은 뉴스 시사

더보기

뉴스 플러스