컴퓨터 일반167 영지식 증명(ZKP, Zero-Knowledge Proof) 개인이 자신만 가진 비밀 정보를 공개하지 않고 상대방인 확인자에게 비밀 정보를 알고 있음을 증명할 수 있는 암호화 체계. 중요한 정보 전달 없이 증명을 할 수 있어 영지식으로 명명됐다. 영지식 증명(ZKP: Zero-Knowledge Proof)은 비밀번호, 주민등록번호 등 개인 정보를 넘기지 않고도 증명을 가능하게 해 신원 확인 분야에서 주목 받는 기술이다. 과학기술정보통신부와 한국인터넷진흥원(KISA)은 ‘공공 분야 블록체인 집중 사업’으로 ‘블록체인 기반 온라인 투표 시스템 확산 사업’을 추진한다. 2022년 10월에 「주민투표법」 개정으로 온라인 방식의 주민투표가 허용되어 이에 따라 온라인 투표 시스템을 개선하기 위한 방안으로 영지식 증명을 활용한다. 영지식 증명은 중앙선거관리위원회 온라인 투표 .. 2025. 4. 7. AI 디지털 교과서(AIDT, Artificial Intelligence Digital Textbook) AI 기술을 활용하여 학생 수준에 따라 학습 단계를 맞춤형으로 조절하는 온라인 교육 소프트웨어. 2025년에 AI 디지털 교과서가 학교에 도입된다. AI 기반의 교과서 서비스가 공교육에 전면 도입되는 것은 세계 최초다. 2000년대 초반에 교육 정보화 사업 이후 가장 큰 혁신이 될 전망이다. AI 디지털 교과서 추진을 위해 교과서 개발 경험을 보유한 발행사와 신기술을 보유한 에듀테크 (EduTech) 기업이 협업할 예정이다. 2025년에 초등학교 3·4학년, 중학교 1학년, 고등학교 공통·일반 선택 과목부터 적용된다. 2026년에는 초등학교 5·6학년, 중학교 2학년, 2027년에는 중학교 3학년까지 단계적으로 도입될 예정이다. AI 디지털 교과서는 온라인으로 제공되는 교육용 소프트웨어다. AI 기술을 .. 2025. 4. 6. 로 코드(Low Code) 최소한의 코드 작성으로 앱(애플리케이션)·프로그램을 개발하는 작업 방식. 말이나 몇 번의 클릭만으로도 직관적으로 개발이 이뤄지는 기법이다. 프로그래밍 언어에 대한 지식과 전문 기술이 없더라도 앱을 설계하거나 사용할 수 있다. 단순 반복 작업을 줄여주는 인공지능(AI) 기술의 발전에 힘입어 다양한 지원 플랫폼이 등장한 것이다. 사회 전반에 형성된 디지털 전환 분위기와 클라우드 확산이 로 코드 시대를 앞당겼다. 디지털 전환 시대가 도래함에 따라 소프트웨어(SW) 인력 수요가 폭증하면서 SW 개발 생산성을 제고할 수 있는 방안으로 주목받았다. 중소벤처기업부가 2023년 7월에 중소벤처기업 187개 사를 대상으로 하여 실시한 설문조사에 따르면 응답 기업의 75.4%가 SW 인력 채용과 유지에 어려움을 느낀다고 .. 2025. 4. 5. 공간 컴퓨팅(Spatial Computing) 일반적인 화면에 제한되지 않고 물리적 주변 환경과 실제 세계, 신체 등을 다양하게 활용하는 인간-컴퓨터 상호작용 기술 중 하나.사이먼 그린월드(Simon Greenwold)가 미국 MIT 미디어랩에서 2003년에 발표한 논문에서 처음 사용한 표현이다. 디지털로 이뤄진 컴퓨터 속 가상 세계와 아날로그 현실 세계의 상호 공간을 확장·연결하는 컴퓨팅 기술을 아우른다. 확장 현실(XR: eXtended Reality), 증강 현실(AR: Augmented Reality), 혼합 현실 (MR: Mixed Reality), 가상 현실(VR: Virtual Reality) 등 기술적 요소와 특징을 포괄하는 개념이다. 애플이 2024년에 선보인 눈앞에 착용하는 몰입형 기기 ‘비전 프로(Vision Pro)’의 인터페이.. 2025. 4. 5. sLLM(smaller Large Language Model, 경량화 언어 모델) 대규모 언어 모델(LLM)보다 적은 수의 매개변수를 가진 인공지능 (AI) 모델.경량화 언어 모델(sLLM : smaller Large Language Model)은 일반적으로 알려진 대규모 언어 모델(LLM : Large Language Model)보다 작은 매개변수(parameter)로 운영할 수 있다. 통상적으로 매개변수가 1,000억 개 이하인 모델을 sLLM으로 분류한다. sLLM의 매개변수의 크기는 LLM보다 작지만 성능은 LLM 못지않다. 매개변수가 작은 덕분에 데이터 처리 속도가 빠르고 실시간 응답이 가능하다. 오픈소스 소프트웨어 배포와 업데이트도 LLM보다 쉽다. 특히 학습 데이터양이 적어지면서 개발 비용과 유지 비용이 적게 들어가는 장점이 있다. 이 같은 장점으로 구글은 sLLM인 ‘제.. 2025. 4. 5. CLOVA X CLOVA X는 네이버의 초대규모(Hyperscale) 언어모델인 HyperCLOVA X 기술을 바탕으로 만들어진 대화형 에이전트입니다. 사용자에게 도움이 되는 정보를 제공하며, 다양한 요청을 수행할 수 있습니다. 네이버 고유의 기술력과 방대한 데이터를 기반으로, 네이버 AI 윤리 준칙을 준수하여 만들어진 CLOVA X는 사용자와 대화하며 상호작용할 수 있는 새로운 차원의 대화형 AI 서비스입니다. (네이버 AI 윤리 준칙 관련한 자세한 정보는 '사람을 위한 CLOVA X 활용 가이드'를 참고하시길 바랍니다.) CLOVA X는 사용자의 생산성 향상을 도울 수 있고, 창조적 발상에 기여하며, 새로운 탐색 사용성도 제공하고 있습니다. 대표적으로 아래와 같은 대화가 가능합니다. 일반적인 질문 검색으로 쉽게 찾.. 2025. 4. 4. MCP(Model Context Protocol) 최근 앤트로픽( Anthropic)이 발표한 "Model Context Protocol(MCP)"은 인공지능(AI) 시스템과 다양한 데이터 소스를 연결하기 위한 혁신적인 표준으로 주목받고 있습니다. 이 프로토콜은 AI 모델이 비즈니스 도구 및 소프트웨어와 통합되도록 돕는 기술로, 기업의 데이터 활용도를 높이는 데 기여할 것으로 기대됩니다. MCP는 애플리케이션이 LLM에 컨텍스트를 제공하는 방식을 표준화하는 개방형 프로토콜입니다. MCP를 AI 애플리케이션의 USB-C 포트라고 생각하세요. USB-C가 다양한 주변 기기 및 액세서리에 장치를 연결하는 표준화된 방식을 제공하는 것처럼 MCP는 AI 모델을 다양한 데이터 소스 및 도구에 연결하는 표준화된 방식을 제공합니다. ● MCP의 주요 내용 - MCP의.. 2025. 4. 4. RAG(Retrieval-Augmented Generation, 검색 증강 생성) ※대규모 언어 모델(LLM)에 쌓인 데이터와 별개의 외부 데이터를 이용해 답변 정확도를 높여주는 기술 캐나다 인공지능(AI) 기업 코히어(Cohere)의 패트릭 루이스(Patrick Lewis) 박사가 2020년에 발간한 논문에서 처음 사용한 것으로 알려졌다. 대규모 언어 모델(LLM: Large Language Model)의 최대 단점은 허위 정보를 제공 하거나, 과거 정보를 최신 정보처럼 속여 제공하는 ‘환각(hallucination)’이다. 환각 현상은 AI 시스템이 실제 데이터나 사실에 기반하지 않고 내놓는 허위 정보 생성 현상을 의미한다. LLM을 기반으로 한 챗봇은 신뢰할 수 없는 답변을 내놓으며 이용자를 혼란에 빠트린다. RAG는 이러한 LLM의 단점을 보완하는 역할을 한다. 이용자의 프롬프.. 2025. 4. 3. Gemini(제미나이) 구글이 공개한 차세대 대규모 언어 모델(LLM: Large Language Model) 구글은 기존의 생성형 AI ‘바드(Bard)’를 업그레이드하고 ‘제미나이 (Gemini)’로 이름을 바꿨다. 제미나이는 ‘알파고’ 개발로 이름을 알린 딥마인드와 구글브레인이 통합하여 만든 구글 딥마인드(Google DeepMind)에서 개발했다. 알파고의 아버지로 유명한 데미스 허사비스(Demis Hassabis)가 제미나이 프로젝트를 주도했다. 제미나이는 텍스트뿐만 아니라 이미지와 영상, 음성을 이해하고 추론하는 멀티모달(multimodal) 기능을 핵심으로 내세웠다. 단순히 이미지를 파악하는 것을 넘어 물건 속성과 특징까지 파악해 이를 바탕으로 추론할 수 있다. 수학 문제를 풀거나 데이터를 분석·추론하는 능력을 갖.. 2025. 4. 2. DNN(Deep Neural Network, 심층 신경망) 입력층(input layer)과 출력층(output layer) 사이에 다중의 은닉층(hidden layer)을 포함하는 인공 신경망(ANN: Artificial Neural Network). 심층 신경망은 다중의 은닉층을 포함하여 다양한 비선형적 관계를 학습할 수 있다. 그러나 학습을 위한 많은 연산량과 과하게 학습하여 실제 데이터에 대해 오차가 증가하는 과적합(overfitting), 기울기 값의 소실 문제(vanishing gradient problem) 등의 문제가 발생할 수 있다. 2000년대 이후 드롭아웃(drop-out), ReLU(Rectified Linear Unit), 배치 정규화(batch normalization) 등의 기법이 적용되면서 심층 기계 학습(deep learning)의 .. 2025. 4. 1. LLM(Large Language Model, 대규모 언어 모델) 대규모의 텍스트 데이터를 학습하여 자연어 이해와 생성 작업에 탁월한 성능을 보이는 심층 신경망(deep neural network) 모델. 대규모 언어 모델(LLM: Large Language Model)은 대규모 텍스트 데이터세트를 활용하여 학습한 파라미터의 수가 매우 큰 모델로 문장을 이해하거나 새로운 텍스트를 생성하는 데 사용한다. 대규모 언어 모델은 수십억에서 수조 개의 파라미터를 포함하고 있어서 과적합(overfitting)을 방지하고 우수한 성능을 달성하기 위해 대규모 데이터세트로 훈련되어야 한다. 대규모 언어 모델에 사용되는 학습 데이터세트로는 인터넷상에 존재하는 방대한 양의 책, 기사, 웹 사이트 등이 있다. 이들 데이터는 일반적으로 데이터 수집(collection), 정제(cleansin.. 2025. 4. 1. 제로클릭 취약점 구글 프로젝트 제로 연구원 “사용자 상호작용 없이도 공격 가능한 새로운 공격 표면...RCS 기능 비활성화 권고” 삼성 스마트폰에서 사용자의 개입 없이 악성코드를 실행할 수 있는 심각한 보안 취약점이 발견됐다. 이번 취약점은 현재 패치가 완료되었지만, 공격자가 이를 악용하면 수백만 대의 스마트폰이 위험에 처할 수 있었다. ■ 취약점 CVE-2024-49415 이번 취약점은 CVE-2024-49415로 추적되며, 보안 취약점 평가 점수(CVSS)에서 8.1점을 받아 높은 위험도로 평가됐다. 이 취약점은 안드로이드(Android) 12, 13, 14 버전을 실행하는 삼성 스마트폰의 오디오 처리 라이브러리인 libsaped.so에서 발견됐다. 문제가 된 부분은 버퍼 오버플로우로, 공격자가 악의적으로 조작한 오.. 2025. 2. 12. 이전 1 2 3 4 ··· 14 다음 반응형