-
3726
NEW
아주대 연구진이 기계가 사람처럼 시각 정보를 인식하고 판별하는 지능형 머신 비전 기술에 활용 가능한 신소자를 개발했다. 이 기술은 단일 칩으로 기존의 센서 시스템보다 속도는 빠르고 에너지는 적게 소모하며 고차원의 이미지를 처리할 수 있어 향후 영상 처리 분야에 폭넓게 활용될 수 있을 전망이다.서형탁 교수(첨단신소재공학과·대학원 에너지시스템학과) 연구팀은 지능형 이미지 처리가 가능한 AI 머신 비전용 뉴로모픽 광센서를 개발했다고 밝혔다. 연구 내용은 ‘온 칩 실시간 시공간 분류와 이동 예측을 위한 강유전성 기반 정적·이벤트·단기 메모리를 갖춘 뉴로모픽 광감지 센서(A neuromorphic photodetector with ferroelectric-controlled static, event, and short-term memory modes for on-chip real-time spatiotemporal classification and motion prediction)’라는 제목으로 나노 분야 저명 국제 학술지 <나노 에너지(Nano Enegy)> 9월호 온라인판에 게재됐다. 이번 연구에는 아주대 대학원 에너지시스템학과의 모히트 쿠마(Mohit Kumar, 위 사진 오른쪽) 교수가 제1저자로, 아주대 대학원 박사과정 당현민· 석사과정 배동현 학생이 공저자로 참여했다. 서형탁 교수(첨단신소재공학과·대학원 에너지시스템학과, 위 사진 왼쪽)는 교신저자로 함께 했다. 머신 비전(machine vision)은 카메라·영상 처리 소프트웨어·인공지능(AI) 등을 활용해 기계가 사람 눈처럼 시각 정보를 인식하고 수집해 판별하는 기술이다. 이 기술은 그동안 주로 산업 현장에서의 자동화를 위해 사람 대신 제품을 측정하고, 위치를 파악하거나, 불량품을 판별하는 데 사용되어왔다. 그러나 최근 들어 이 기술은 AI 알고리즘을 기반으로 자율주행, 로봇, 보안, 군사, 의료 등 한층 복잡한 영상의 판독과 해석이 필요한 분야로 빠르게 확장되고 있다. 카메라로 이미지를 포착하고 컴퓨터로 특징을 파악·분석해, 주변의 환경을 스스로 판단하고 동작할 수 있기 때문이다.머신 비전을 활용한 시스템의 진화를 위한 핵심 요건은 무엇보다도 고해상도 이미지를 기록하는 광 이미지 센서와 영상 데이터의 빠른 신호처리다. 머신 비전 기술은 엄청난 크기의 데이터 전송량을 유발하는데, 이러한 대규모 데이터 전송 과정에서 ▲네트워크 대역폭의 제한 ▲대기 시간 증가 ▲데이터 손실 등 여러 문제가 발생할 수 있다. 특히 실시간 처리가 중요한 자동화 및 검사 시스템에서 이러한 문제는 심각한 병목현상을 유발할 수 있다. 이에 최근에는 배경 정지 영상까지 모든 화상을 기록 및 처리하는 기존 광센서 시스템과 차별화되는 모션 이벤트 기반의 비전 센서가 주목받고 있다. 모션 이벤트 기반의 비전 센서란, 모든 장면을 촬영해 정보를 처리하는 것이 아니라, 유의미한 특정 픽셀만을 선택적으로 처리하는 방식이다. ‘밝기’의 변화를 감지해, 움직임이 발생한 부분만을 선택적으로 포착할 수 있는 것. 아주대 연구팀은 정지 화면과 이동 피사체를 구분할 수 있을 뿐 아니라, 정보 저장 시간의 조정 또한 가능한 광 감지 메모리 센서 개발에 나섰다. 정보 저장 시간을 조정할 수 있다는 것은, 피사체 움직임의 지속 시간이나 강도에 따라 영상을 메모리에 저장하는 시간이 달라진다는 뜻으로 에너지 효율적 처리를 가능하게 한다. 이러한 광 감지 특성은 생체 망막을 비롯한 인체의 기능을 모사한 것으로, 생체 망막 내의 광수용체는 빛의 변화를 통해 주변 환경의 움직임에 반응하는 역할을 하며 포착된 시각 정보는 그 중요도에 따라 다르게 받아들여진다. 이번에 개발된 광 감지 메모리 센서는 생체 망막과 같이 전압 조절을 통해 모션(이벤트)이 있는 화상을 정전형 전류 스파이크가 촉발한 단기 메모리(0.001초 이내) 형태로 저장한다. 그 외의 배경 정지 화상은 정적인 광전류로 출력해 구분할 수 있다. 연구팀의 광 감지 메모리 센서는 또한 인체 망막의 수평 세포와 말단 신경절 세포를 모사해 설계됐다. 수평 세포의 기능처럼 빛의 어두운 부분과 밝은 부분의 경계를 뚜렷하게 하는 측면 억제를 통해 광 감도나 색채 분류 등의 관련 기능을 향상시키고, 노이즈를 억제함으로써 이미지 정보를 조정할 수 있는 단기 기억 기능을 갖게 한 것. 또한 말단의 신경절 세포처럼 이벤트 기반의 스파이크 신호를 발생시켜, 데이터를 압축할 수 있도록 했다. 연구팀은 최근 나노 스케일 강유전성 소재로 널리 개발되고 있는 헤프늄-지르코늄 복합산화물(HfZrO: HZO)에 주목해 이를 실리콘 기판에 적층함으로써 새로운 센서를 개발할 수 있었다. 전압 크기에 따라 전류 혹은 정전 용량 등 다른 형태의 신호를 출력하는 다중 출력 특성을 통해 정지 화면과 이동 피사체를 구분하고, 정보 저장 시간 조정도 가능하게 된 것. 아주대 연구팀이 개발한 AI 머신 비전용 뉴로모픽 광센서에 대한 이미지. 연구팀은 그동안 여러 개의 소자로 복잡하게 구동해야 했던 모션 이벤트 기반 광 감지 메모리 센서를 하나의 칩으로 구현 가능하게 했다연구팀은 개발된 소자의 다중 출력 특성과 이벤트 발생 시에만 촉발되는 단기 메모리를 활용해 머신 비전 시스템을 구성했다. 그리고 이미지에 대한 적응형 학습을 통해 실제 측정된 영상에 이를 적용해 ▲이벤트성 이미지 판별 및 분류(정확도 93%) ▲이동 추적 및 예측(정확도 20~80%) 까지 단일 칩에서 기존보다 빠른 속도와 낮은 전력으로 가능함을 증명했다. 속도는 기존 대비 200배 수준, 전력 소모는 기존 대비 1000배 수준 개선됐다. 서형탁 교수는 “이번 연구는 기존 머신 비전 시스템의 데이터 병목현상 한계를 극복하기 위해 단일 칩으로 이벤트 기반 이미지 인코딩과 메모리 기반 지능형 프로세스를 구현한 최초의 사례”라며 “실리콘 접합 구조의 소자 구조를 구현해 양산 공정 적용이 가능하다”라고 말했다. 이번 연구는 과학기술정보통신부·한국연구재단이 주관하는 차세대지능형반도체기술개발사업과 중견 기초연구지원사업의 지원으로 수행되었으며, 특허 출원이 진행 중이다.
-
3725
- 작성자이솔
- 작성일2025-10-29
- 67
- 동영상동영상
-
3724
NEW
-
3723
- 작성자이솔
- 작성일2025-10-29
- 61
- 동영상동영상
-
-
3721
- 작성자이솔
- 작성일2025-10-28
- 367
- 동영상동영상
-
-
3719
- 작성자손예영
- 작성일2025-10-24
- 508
- 동영상동영상
-
아주대 연구진이 피부 밀착형 초유연 전자소자를 기반으로 한 차세대 지능형 제스처 인식 플랫폼의 연구 로드맵을 제시했다. 헬스케어와 로봇공학 등 첨단 분야의 핵심 기술로 활용되고 있는 지능형 제스처 인식기술의 연구에 널리 활용될 수 있을 전망이다. 박성준 아주대 교수 연구팀은 왕건욱 고려대 교수 연구팀과 함께 피부에 밀착되는 초유연 전자소자를 기반으로 한 지능형 손짓 제스처 인식기술의 최신 동향을 종합 분석한 리뷰(review) 논문을 발표했다고 밝혔다. 이번 리뷰 논문은 ‘지능형 제스처 인식을 위한 피부 맞춤형 전자 장치(Skin-conformal electronics for intelligent gesture recognition)’라는 제목으로 글로벌 저명 학술지 <네이처 리뷰 일렉트리컬 엔지니어링(Nature Reviews Electrical Engineering)> 10월호에 게재됐다. 이번 연구에는 아주대 지능형반도체공학과 박사과정 이인호 학생, 고려대 KU-KIST 융합대학원 박사과정 신효진 학생, 미국 버지니아대 조해인 박사가 공동 제1저자로 참여했다. 아주대 박성준 교수(전자공학과·지능형반도체공학과)와 아주대 최준규 연구원(정보통신전자연구소), 고려대 왕건욱 교수(KU-KIST 융합대학원 융합에너지공학과)는 교신저자로 참여했다.제스처 인식(Gesture recognition) 기술은 인간의 손짓과 동작을 전기 신호로 변환해, 센서 등의 장치를 통해 기계가 감지하고 반응하도록 하는 기술을 의미한다. 가상현실(VR)과 증강현실(AR), 로봇공학 분야와 인간-기계 인터페이스(Human-Machine Interface) 그리고 헬스케어 등의 분야에서 제스처 인식기술은 중요한 화두가 되어 왔다. 제스처 인식기술을 이용하면 메타버스를 비롯한 확장현실(XR) 환경에서 사용자의 몰입감을 높이고, 맞춤형 의료 서비스에서 환자의 동작 데이터를 실시간으로 수집하며, 로보틱스 제어의 직관성 및 안전성을 강화하는 등 버튼이나 음성 명령을 대체하는 수준 이상의 활용이 가능하다. 그러나 지금까지의 제스처 인식 시스템은 ▲카메라 ▲적외선 센서 ▲장갑형 웨어러블 기기 등에 의존해왔고, 이러한 방식은 여러 구조적 한계를 보여왔다. 전력 소모가 큰데다 카메라 등 기기가 위치한 곳에서만 활용이 가능해 공간적 제약이 있고, 센서나 기기의 부피가 크고 구조가 복잡해 착용이 어렵고 정밀도가 떨어지는 것. 손가락 동작이 가능한 전자 피부 등 관련 분야를 연구해온 아주대·고려대 공동 연구팀은 기존의 기술과 연구에 대한 심층 분석을 통해 손짓 제스처 인식기술의 구조적 한계를 극복하기 위한 피부 부착용 초박막·초유연 전자소자 기반 플랫폼을 제안했다. 초박막·초유연 전자소자 기반 플랫폼은 다양한 센싱 모듈–뉴로모픽 시냅스 소자–인공지능 인식 유닛이 결합해 작동하며, 실제 생활 환경에서도 안정성과 신뢰성을 확보할 수 있다. 전체 구조는 초박막·초유연 전자소자로 구현되어 피부와 자연스럽게 일체화된다. 이를 통해 간편한 장치로 세심하고 민감하게 손동작을 인식할 수 있게 됨으로써 기존 장치들의 한계로 여겨져 왔던 착용감, 내구성, 신뢰성의 한계를 동시에 보완할 수 있다. 연구팀은 리뷰 논문에서 제안 플랫폼의 세부 구성을 구체적으로 제시했다. 우선 ▲제스처 센서는 손가락 관절, 근육, 표면 근전도, 광학적 변화 등 다양한 생체 신호를 높은 감도와 빠른 응답 속도로 포착한다. ▲뉴로모픽 시냅스 소자는 가소성(plasticity)을 조절해 반복되는 제스처 패턴을 학습·기억할 수 있도록 하고 ▲인공지능 인식 유닛은 CNN, RNN, 리저버 컴퓨팅 등 알고리즘을 적용해 정적·동적 동작을 실시간으로 분류·해석한다. 공동 연구팀은 이 세 가지 요소가 유기적으로 작동할 때, 단순한 동작 검출을 넘어 학습과 추론이 가능한 지능형 인간–기계 인터페이스가 구현된다고 강조했다. 이러한 분석은 단순한 기술적 성과를 넘어, 인공지능 전환(AI Transformation, AX) 시대가 요구하는 지능형 상호작용 플랫폼의 청사진을 보여준다.연구팀은 앞으로의 발전 방향에 대한 제안도 내놨다. 먼저 기존 웨어러블 기기에서 초박막·초유연 장치로의 진화를 통해 사용 편의성과 안정성을 강화해야 하며, 이를 위해 특히 반복적인 구부림이나 주름 변형 속에서도 장기간 감도를 유지할 수 있는 신소재 개발이 필수적이라고 설명했다. 또한 전기·광학·기계 신호를 융합하는 멀티모달 센싱 체계의 필요성도 강조했다. 복잡한 제스처에도 실시간 반응성을 확보하고, 단일 센서로는 얻기 어려운 고차원 정보를 추출할 수 있는 기반을 마련할 수 있어서다. 왼쪽부터 이인호 박사과정생, 최준규 연구원, 박성준 교수더 나아가 손끝의 미세한 움직임이나 피부의 광학적 변화 등을 안정적으로 포착하는 정밀 감지 기술도 요구된다. 연구진은 여기에 뉴로모픽 연산 방식을 접목할 경우, 인간의 학습·기억 메커니즘을 전자 장치에서 구현할 수 있어 단순 감지를 넘어 반복적 행동 패턴을 학습·적응하는 지능형 플랫폼으로 발전할 수 있다고 분석했다. 이는 단순히 손가락의 위치를 읽는 수준을 넘어, 손동작의 힘과 속도, 연속성, 맥락을 함께 이해해 ‘사용자의 의도’를 파악하고 선제적으로 반응하는 차세대 인터페이스로 발전할 수 있다는 의미다. 예를 들어, 의료현장에서는 환자의 미세한 회복 변화를 분석해 맞춤형 재활을 지원하고, 산업 환경에서는 장갑이나 조작기 없이 손짓만으로 기계를 제어하는 직관적 휴먼–로보틱스 시스템을 구현할 수 있다. 또한 메타버스를 비롯한 확장현실 환경에서는 손의 움직임 흐름만으로 메뉴 탐색, 객체 조작, 감정 표현까지 가능한 자연스러운 상호작용이 가능해지고 스마트홈이나 차량 인터페이스에서는 사용자의 습관과 패턴을 학습해 ‘말하지 않아도 먼저 실행하는’ 예측형 제어가 가능해진다.연구팀은 또 기술 상용화를 위해서는 ▲대면적·대량 제조 기술 ▲장기 착용 시의 안정성 ▲사용자 편의성 ▲규제 승인 체계 등이 함께 마련돼야 한다는 점도 제시했다. 이번 논문의 제1저자인 아주대 이인호 박사과정생은 “현재의 손 제스처 인식 기술은 장갑형 웨어러블 기기나 카메라 등을 통해 구현되고 있는데, 활용 장소의 제약이 있는 데다 무겁고 불편하며 섬세한 인식이 어렵다”라며 “이번 연구에서 제안한 제스처 인식 플랫폼이 실현되면 피부 위에 문신 수준으로 구현된 센서와 기기를 통해, 의료현장과 로봇공학 분야 등에서 정밀하고 빠르게 실시간으로 활용이 가능할 것”이라고 설명했다. 아주대 박성준 교수는 “제스처 인식은 디지털 전환을 넘어서는 ‘인공지능 대전환’의 흐름과 맞물려 여러 국가 전략 산업의 전반에 폭넓게 활용될 미래 핵심 기술”이라며 “국내외 스마트 센서 및 웨어러블 산업뿐 아니라 차세대 인간-기계 인터페이스 연구에 중요한 참고가 될만한 연구 결과”라고 전했다.이어 “앞으로 소재 안정성, 저전력 AI 알고리즘, 플랫폼 신뢰성 강화 등 후속 연구가 병행된다면 물리적 세계와 디지털 세계를 연결하는 실시간 상호작용의 새로운 시대가 열릴 수 있을 것”이라고 전망했다.이번 연구는 과학기술정보통신부의 나노·소재기술개발사업, 신진연구지원사업, 신진연구자 인프라 사업, 중견연구사업, 기초연구실지원사업, PIM인공지능반도체핵심기술개발(소자)사업의 지원을 받아 수행됐다. 또한 한국산업기술기획평가원의 시장주도형 K-센서 기술 개발사업의 지원도 받았다.* 위 그림 : 아주대 공동 연구진이 제안한 손동작의 지능형 제스처 인식을 구현하기 위한 세 가지 핵심 기술
-
3717
- 작성자이솔
- 작성일2025-10-22
- 610
- 동영상동영상
-
-
3715
- 작성자홍보실
- 작성일2025-10-16
- 2516
- 동영상동영상
-
-
3713
- 작성자손예영
- 작성일2025-10-14
- 1032
- 동영상동영상
-
-
3711
- 작성자이솔
- 작성일2025-10-14
- 779
- 동영상동영상
-
-
3709
- 작성자이솔
- 작성일2025-10-01
- 1503
- 동영상동영상
-
-
3707
- 작성자이솔
- 작성일2025-09-29
- 1271
- 동영상동영상
-
아주대 문화콘텐츠학과 박재연 교수가 두 권의 책 <두 번째 미술사>와 <주머니 쏙! 미술>을 펴냈다. 박 교수는 미술사와 전시기획, 문화정책 등을 연구하고 강의하며 활발한 저술활동을 해왔다. <두 번째 미술사- ‘정설’을 깨뜨리고 다시 읽는 그림 이야기(한겨레출판사, 2025)>는 우리가 흔히 접해온 미술계의 ‘신화’들을 재해석하는 교양서다. 이 책에서 저자는 널리 알려진 화가와 그림에 대한 이야기들이 어떤 시대적 맥락에서 태어났고, 어떤 사회문화적 환경과 상황 속에서 지탱되어 왔는지를 35가지 질문을 통해서 풀어낸다. 이 책은 총 7장으로, 각 장은 ▲거장의 신화는 어떻게 만들어지는가 ▲ 예술가는 어떻게 브랜드가 되는가 ▲예술가의 뒤에는 누가 있는가 ▲미술관은 어떻게 명작을 만드는가 등을 주제로 구성되어 있다.박재연 교수는 책의 프롤로그를 통해 “미술사는 완성된 과거가 아니라 끊임없이 새롭게 써야 하는, ‘살아 있는’ 이야기”라며 “이 책은 미술사 자체를 하나의 문화 현상으로 바라보려는 작은 시도이기도 하다”라고 전했다. <질문하는 10대에게, 주머니 쏙! 미술(노란상상, 2025)>은 그동안 미술에 대해 읽고 말하는 일을 꾸준히 해온 박재연 교수가 선보인 첫 어린이 교양서다. 미술에 대한 의문과 궁금증을 쉽게 풀어내는 책으로, ▲세상에서 가장 비싼 그림은? ▲세상에서 가장 많은 욕을 먹은 그림은? ▲화가들은 왜 추상화를 그릴까? ▲인공지능이 그린 그림도 예술일까? ▲우리에게 왜 미술이 필요할까? 등의 질문을 통해 이야기를 풀어냈다. 우리 학교 문화콘텐츠학과에서 지난 2020년 2학기부터 강의해온 박재연 교수는 전시기획, 미술사, 스마트 뮤지엄, 문화매개, 문화정책 등을 연구하고 있다. 박 교수는 앞서 <모던 빠리> <미술, 엔진을 달다>를 펴냈고, 옮긴 책으로는<모두의 미술사> <어린이 미술 사전 100> <예술가의 여정> 등이 있다.
-
3705
- 작성자이솔
- 작성일2025-09-29
- 1405
- 동영상동영상
-
-
3703
- 작성자홍보실
- 작성일2025-09-26
- 1256
- 동영상동영상