세계에서 가장 빠른 메모리: 초당 250억 비트 쓰기, 기존 기술보다 10,000배 빠름
SRAM의 속도와 플래시의 데이터 보존 능력을 결합한 이 장치는 AI의 엄청난 대역폭 및 전력 요구를 충족합니다
푸단대학교 연구팀이 현재까지 보고된 반도체 저장 장치 중 가장 빠른 장치를 개발했습니다. 이 비휘발성 플래시 메모리는 "PoX"라고 불리며, 단일 비트를 400피코초(0.0000000004초) 만에 프로그래밍(쓰기)할 수 있습니다. 이는 초당 약 250억 번의 작업 속도입니다. 오늘 네이처(Nature)지에 발표된 이 결과는 비휘발성 메모리를 이전에는 가장 빠른 휘발성 메모리만 도달할 수 있었던 속도 영역으로 끌어올렸으며, 데이터를 많이 요구하는 AI 하드웨어에 새로운 기준을 제시했습니다.
속도 한계 돌파
기존의 정적 및 동적 RAM(SRAM, DRAM)은 데이터를 1~10나노초 만에 쓰지만, 전원이 차단되면 모든 데이터를 잃어버립니다(휘발성). 반면, 플래시 칩은 전원 없이도 데이터를 유지하지만(비휘발성), 일반적으로 쓰기 작업당 마이크로초에서 밀리초가 소요되어 실시간으로 테라바이트의 파라미터를 처리하는 현대 AI 가속기에는 너무 느립니다.
집적회로 및 시스템 국가 핵심 연구소의 저우 펑(Zhou Peng) 교수팀이 이끄는 푸단대 연구진은 실리콘 채널을 2차원 디랙 그래핀(Dirac graphene)으로 대체하고 그 탄도 전하 수송(ballistic charge transport) 특성을 활용하여 플래시 물리 법칙을 재설계했습니다.
채널의 "가우시안 길이(Gaussian length)"를 조절함으로써, 연구팀은 저장층으로 효과적으로 무한한 전하 급증을 일으키는 2차원 슈퍼 인젝션(2D super-injection)을 달성하여, 고전적인 주입 병목 현상을 우회했습니다.
저우 교수는 신화통신과의 인터뷰에서 "AI 기반 공정 최적화를 통해 비휘발성 메모리를 이론적 한계까지 끌어올렸다"며, 이 성과가 "미래 고속 플래시 메모리의 길을 열었다"고 덧붙였습니다.
눈 깜짝할 사이에 10억 번의 사이클
공동 저자인 류 춘썬(Liu Chunsen)은 이번 혁신을 초당 1,000번 쓰는 U-디스크에서 눈 깜짝할 사이에 10억 번을 실행하는 칩으로의 변화에 비유했습니다. 이전 비휘발성 플래시 프로그래밍 속도의 세계 기록은 초당 약 2백만 번의 작업이었습니다.
PoX는 비휘발성이므로 대기 전력 없이 데이터를 유지하며, 이는 차세대 엣지 AI 및 배터리 제한 시스템에 필수적인 속성입니다. 극도로 낮은 에너지 소비와 피코초 수준의 쓰기 속도를 결합하면, 현재 산술 연산보다 데이터 이동이 전력 예산의 대부분을 차지하는 AI 추론 및 훈련 하드웨어에서 오랜 기간 지속되어 온 메모리 병목 현상을 제거할 수 있습니다.
산업적 및 전략적 함의
플래시 메모리는 비용 효율성과 확장성 덕분에 글로벌 반도체 전략의 초석으로 남아있습니다. 푸단대의 이번 발전은 검토자들에 따르면 "완전히 독창적인 메커니즘"을 제공하며, 이는 기존 판도를 바꿀 수 있습니다.
만약 대량 생산된다면, PoX 스타일 메모리는 AI 칩의 별도 고속 SRAM 캐시를 대체하여 면적과 에너지를 크게 줄일 수 있습니다. 이를 통해 즉시 켜지는 저전력 노트북과 스마트폰이 가능해지고, 전체 작업 세트를 영구 RAM에 저장하는 데이터베이스 엔진을 지원할 수 있습니다.
이 장치는 또한 핵심적인 칩 기술 분야에서 리더십을 확보하려는 중국의 국내 노력을 강화할 수 있습니다. 연구팀은 내구성 수치나 제조 수율은 공개하지 않았지만, 그래핀 채널은 글로벌 파운드리(반도체 위탁 생산 업체)들이 이미 탐색하고 있는 기존의 2D 소재 공정과의 호환 가능성을 시사합니다. 저우 교수는 "우리의 돌파구는 저장 기술을 재편하고, 산업 업그레이드를 주도하며, 새로운 응용 시나리오를 열 수 있다"고 말했습니다.
다음 단계
푸단대 엔지니어들은 현재 셀 아키텍처를 스케일업하고 어레이 수준의 시연을 진행하고 있습니다. 상업 파트너는 아직 공개되지 않았지만, 중국 파운드리들은 2D 소재를 주류 CMOS 라인과 통합하기 위해 경쟁하고 있습니다.
성공한다면, PoX는 새로운 종류의 초고속, 초저전력 메모리로 등장하여, 대규모 언어 모델(LLM) 가속기의 증가하는 요구를 충족시키고, 마침내 AI 하드웨어에 논리 회로 속도를 따라잡는 저장 매체를 제공할 수 있습니다.
분석 및 설명:
이 기사는 중국 푸단대학교 연구팀이 개발한 새로운 비휘발성 플래시 메모리 기술인 "PoX"에 대해 다루고 있습니다. 핵심적인 내용을 분석하고 관련 용어를 설명하면 다음과 같습니다.
- 무엇이 개발되었는가?
- 기존 플래시 메모리보다 훨씬 빠르고, 휘발성 메모리(RAM)처럼 빠르면서도 전원이 꺼져도 데이터를 유지하는(비휘발성) 새로운 반도체 저장 장치입니다. 이 장치는 "PoX" 또는 "포샤오(Poxiao)"라고 불립니다.
- 핵심 성능 향상:
- 속도: 단일 비트 쓰기 속도가 400피코초(ps)로, 이는 초당 250억 번의 작업에 해당합니다. 기존 플래시 메모리보다 약 10,000배 빠르며, 이전 비휘발성 플래시 기술의 세계 기록(초당 2백만 작업)보다도 훨씬 빠릅니다. 일부 기사에서는 기존 휘발성 메모리(SRAM 등)보다도 빠르거나 대등하다고 언급하기도 합니다.
- 비휘발성: RAM(SRAM, DRAM)과 달리 전원이 꺼져도 데이터가 지워지지 않습니다.
- 에너지 효율: 초저전력으로 작동합니다.
- 어떻게 속도를 높였는가?
- 기존 플래시 메모리가 데이터를 저장하기 위해 사용하는 실리콘 채널 대신, 2차원 디랙 그래핀(Dirac graphene)이라는 신소재를 사용했습니다.
- 디랙 그래핀의 탄도 전하 수송(ballistic charge transport) 특성(전자나 정공이 저항 없이 빠르게 이동하는 현상)을 활용했습니다.
- 채널의 "가우시안 길이"를 조절하여 "2차원 슈퍼 인젝션(2D super-injection)"이라는 새로운 방식으로 저장층에 전하를 주입했습니다. 이는 기존 방식의 속도 제한을 없애는 효과를 가져왔습니다.
- AI 기반 공정 최적화 기술도 활용되었습니다.
- 왜 중요한가? (AI 및 기타 응용 분야에 미치는 영향)
- AI 병목 현상 해결: 현대 AI 시스템, 특히 대규모 언어 모델(LLM)은 엄청난 양의 데이터를 실시간으로 처리해야 합니다. 기존 메모리 기술(빠르지만 휘발적인 RAM과 비휘발성이지만 느린 플래시)은 이러한 데이터 처리 속도를 따라가지 못하는 병목 현상을 일으켰습니다. PoX는 RAM처럼 빠르면서도 플래시처럼 비휘발성이라는 장점을 결합하여 이 병목 현상을 해결할 수 있습니다.
- 하드웨어 개선: AI 칩에서 고속 SRAM 캐시를 대체하여 칩 면적과 전력 소비를 줄일 수 있습니다.
- 엣지 AI 및 저전력 시스템: 대기 전력이 필요 없고 에너지 효율이 높기 때문에 전력에 제약이 있는 엣지 AI 장치나 배터리 구동 시스템에 매우 유리합니다.
- 소비자 기기: 즉시 부팅되는 저전력 노트북이나 스마트폰 개발에 기여할 수 있습니다.
- 데이터베이스: 전체 작업 데이터 세트를 영구 메모리에 저장하여 처리 속도를 크게 높일 수 있습니다.
- 전략적 함의:
- 플래시 메모리 시장은 전 세계적으로 매우 중요하며, 이 분야에서 혁신적인 기술은 큰 영향력을 가집니다.
- 푸단대의 이번 개발은 중국이 핵심 반도체 기술 분야에서 자립 및 리더십을 확보하려는 국가 전략에 기여할 수 있습니다.
- 남은 과제 및 전망:
- 현재 프로토타입은 킬로바이트 수준의 작은 용량입니다. 앞으로 메가바이트 수준으로 확장하는 것이 목표입니다.
- 내구성(데이터를 쓰고 지우는 수명) 및 제조 수율(얼마나 많은 양품을 생산할 수 있는지)은 아직 공개되지 않았습니다. 상용화를 위해서는 이러한 부분의 검증과 개선이 필요합니다.
- 2D 소재(그래핀) 공정이 기존 CMOS(반도체 제조 공정)와 호환되는지, 대량 생산이 가능한지 여부가 중요합니다.
- 상업적 파트너십을 통해 산업화 단계로 나아갈 계획입니다.
결론적으로, 푸단대학교의 PoX 플래시 메모리 개발은 기존 저장 기술의 한계를 극복하고 AI 시대를 포함한 미래 컴퓨팅 환경의 성능을 크게 향상시킬 잠재력을 가진 중요한 기술 혁신입니다. 특히 속도와 비휘발성, 에너지 효율을 동시에 달성했다는 점에서 주목받고 있으며, 성공적인 상용화는 메모리 및 컴퓨팅 아키텍처 전반에 큰 변화를 가져올 수 있습니다.
'AI연구' 카테고리의 다른 글
LLM, 이제 최소한의 데이터로 어려운 수학 문제 해결 가능: UC 버클리와 Ai2 연구진, 난이도 전반에 걸쳐 수학적 추론 능력을 끌어내는 미세 조정 방법 공개 (0) | 2025.04.24 |
---|---|
Byte Latent Transformer (BLT)라는 새로운 언어 모델 아키텍처 (0) | 2025.04.18 |
임베딩 정렬 비전-언어 모델을 통한 중국 서예 문맥화 (0) | 2025.04.17 |
AI를 활용한 ECB 정책 예측 정확도 향상 (0) | 2025.04.17 |
2025 오사카 엑스포 신기술 보고서 (0) | 2025.04.16 |