Excel & IT Info

아이엑셀러 닷컴, 엑셀러TV

IT Info

계속 발전할 AI, 알아야 할 7가지 AI 용어

권현욱(엑셀러) 2024. 9. 20. 10:25
반응형

들어가기 전에

AI 기술은 숨가쁘게 발전하고 있으며, 시대에 발맞추려면 AI 관련 전문용어를 아는 것이 중요합니다. 일상 대화에서도 흔히 사용되며, 꼭 알아야 할 7가지 AI 용어를 소개합니다.

권현욱(엑셀러) | 아이엑셀러 닷컴 대표 · Microsoft Excel MVP · Excel 솔루션 프로바이더 · 작가

이미지: 아이엑셀러 닷컴


※ 이 글은 아래 기사 내용을 토대로 작성되었습니다만, 필자의 개인 의견이나 추가 자료들이 다수 포함되어 있습니다.

  • 원문: AI Is Here to Stay, So Update Yourself With These 7 AI Terms
  • URL: https://www.howtogeek.com/ai-is-here-to-stay-so-update-yourself-with-these-ai-terms/

1. 인공 지능(AI) 대 AGI(인공 일반 지능)

AI 기업들은 종종 AGI 달성에 대해 이야기합니다. AGI는 무엇이며 오늘날의 AI와 어떻게 다를까요? AI의 교과서적인 정의는 인간과 같은 지능을 필요로 하는 작업을 수행할 수 있는 컴퓨터 시스템입니다. 하지만 현재의 AI 도구는 이 정의를 완전히 충족시키지 못합니다. 특정 작업에 초점을 맞춘 인간과 유사한 지능의 단편적인 모습만 보여줄 뿐입니다.

 

예를 들어 ChatGPT는 DALL-E를 사용하여 텍스트, 코드를 작성하고 이미지를 생성할 수 있습니다. 하지만 음악을 만들 수는 없습니다. Udio는 음악을 만들 수는 있지만 텍스트를 작성할 수는 없습니다. 실제로 가사는 GPT-4o를 사용합니다. 진정한 AI는 인간처럼 이 모든 것, 그리고 그 이상을 할 수 있어야 합니다.

 

바로 여기에 AGI가 등장합니다. AGI는 여러 작업에서 인간과 유사한 지능을 발휘할 수 있는 컴퓨터를 말합니다. AGI와 상호작용하는 것은 마치 스타트렉의 데이터 사령관과 대화하는 것과 같습니다.

하지만 우리는 AGI가 무엇을 해야 하는지는 알지만 어떻게 작동할지는 알지 못합니다. Meta의 AI 책임자를 포함한 대부분의 AI 연구자들은 AGI는 수십 년 후에나 가능할 것으로 생각합니다.

 

2. AI 환각(Hallucination)

ChatGPT에 질문을 하여 완벽하게 들리는 답변을 받았는데, 그 답변이 지어낸 것임을 깨달았다면 이것이 바로 AI 환각입니다. AI 시스템은 때때로 전문가 수준의 확신을 가지고 잘못된 정보를 생성하기도 합니다. 셰익스피어가 "위대한 개츠비"를 썼다고 주장하면 거의 믿게 될 정도로 설득력이 있습니다.

 

이러한 문제는 GPT-3.5로 ChatGPT를 처음 출시했을 때 흔히 발생했습니다. GPT-4와 GPT-4o에서는 환각이 감소했지만 여전히 발생하고 있습니다. 왜 그럴까요?

AI 모델은 우리처럼 정보를 이해하지 못하기 때문입니다. 학습된 패턴을 기반으로 단어를 예측합니다. 따라서 문법적으로 정확하고 논리적인 문장이 만들어집니다. 하지만 때때로 데이터와 사실을 조작할 수 있습니다.

연구자들은 환각을 줄이기 위해 노력하고 있지만 여전히 문제가 되고 있습니다. 현재로서는 환각에 대한 최선의 방어책은 여러분 자신입니다. 인공지능을 사용할 때는 항상 신중을 기하고, 특히 너무 좋게 들리거나 사실이라고 하기에는 이상하게 들리는 경우 인공지능이 생성하는 모든 사실을 다시 한 번 확인해야 합니다.

 

3. 신경망

신경망(Neural networks)은 동물의 뇌에 있는 뉴런의 조직에서 영감을 얻은 컴퓨팅 시스템으로, 이름 그대로 신경망입니다. 이 아이디어는 생물학적 신경 시스템에서 영감을 받은 방식으로 정보를 처리하고 학습할 수 있는 계산 모델을 만드는 것입니다.

인간의 뇌에서 뉴런은 복잡한 패턴으로 연결됩니다. 뉴런의 활성화는 우리의 기억, 생각, 행동에 영향을 미칩니다. 신경망에서 인공 뉴런(노드)은 입력을 받아 처리하고 출력을 보냅니다. 이러한 노드는 복잡한 패턴으로 연결됩니다. 이러한 구조를 통해 시스템은 인간 수준의 지능이 필요한 다양한 작업을 수행할 수 있습니다.

신경망의 응용 분야에는 이미지 및 음성 인식, 자율 주행 차량, 재무 예측, 컴퓨터가 인간의 언어를 이해하고 생성하는 자연어 처리 등이 있습니다. 즉, 신경망, 특히 복잡한 워크로드를 위해 설계된 신경망은 패턴을 학습하고 새로운 상황을 처리하기 위해 많은 양의 고품질 학습 데이터가 필요합니다. 이러한 데이터는 확보하기가 어려울 수 있습니다.

또한 일부 신경망, 특히 딥러닝 모델(다음 섹션에서 자세히 설명)은 해석하기 어렵습니다. 어떻게 결론에 도달하는지 이해하는 것은 까다로울 수 있습니다. 이것이 바로 블랙박스 문제입니다. 연구자들은 보다 해석 가능한 모델과 AI의 결정을 설명할 수 있는 방법을 연구하고 있습니다.

4. 머신러닝 vs 딥러닝

머신러닝(ML)과 딥러닝(DL)은 기술 분야에서 가장 큰 화두로 떠오르고 있는 두 가지 키워드입니다. 머신러닝과 딥러닝이 같다고 생각하는 사람들도 있지만, 미묘하지만 중요한 차이점이 있습니다.

 

머신러닝은 컴퓨터가 스스로 패턴을 찾을 수 있도록 많은 데이터를 입력하는 컴퓨터 과학의 광범위한 분야입니다. 이는 개발자가 사용자와의 모든 가능한 상호작용을 코딩해야 하는 기존 프로그래밍과는 대조적입니다.

ML 프로그램은 이렇게 많은 수작업이 필요하지 않으며, 학습 데이터에 없는 독특한 상황을 제시하더라도 학습 데이터의 패턴을 참조하여 출력을 생성할 수 있습니다. 그렇긴 하지만 올바른 방향으로 나아갈 수 있도록 훈련하는 동안 사람의 안내가 필요합니다. 스팸 탐지, 제품 추천, 일기 예보 등에 머신러닝 시스템을 적용하고 있습니다.

딥러닝은 다층 신경망을 사용하는 머신 러닝의 하위 집합으로, "딥(Deep)"이라는 이름이 붙었습니다. 딥러닝은 기존 머신러닝보다 사람의 입력이 덜 필요합니다. 사람의 입력은 주로 기본 모델 설계와 같은 초기 단계에 관여합니다.

 

딥러닝을 사용하면 사람의 도움 없이도 원시 데이터에서 패턴을 찾을 수 있습니다. 이미지나 텍스트와 같은 복잡한 데이터를 처리하는 데 탁월합니다. 이미지 및 얼굴 인식, 음성 처리, 자율 주행 차량과 같은 고급 컴퓨팅 작업을 주도합니다. 하지만 이를 실현하려면 DL 모델에는 방대한 학습 데이터 세트와 많은 연산 능력이 필요합니다.

 

5. 자연어 처리

자연어 처리(NLP: Natural Language Processing)는 컴퓨터가 인간의 언어를 이해하고, 해석하고, 생성하도록 돕는 컴퓨터 과학의 한 연구 분야입니다. 최신 NLP 작업은 딥 러닝을 사용하여 인상적인 결과를 달성합니다. 음성 인식, 텍스트 음성 변환, 감정 분석, 풍자 감지, 텍스트 스타일 변환 등이 NLP 파워 작업의 몇 가지 예입니다.

 

NLP는 Alexa, Siri 및 기타 AI 챗봇과 같은 대화 기술의 근간을 이루는 기술입니다. 또한 번역, 콘텐츠 검토 및 자동 생성 콘텐츠에도 도움이 됩니다. 최근 NLP의 발전으로 AI 작문은 더욱 인간과 비슷해졌습니다. 이것이 바로 ChatGPT가 매우 자연스럽게 들리는 이유입니다.

 

6. 트랜스포머 모델

트랜스포머 모델은 AI 분야에서 가장 최근에 등장한 혁신적인 도구입니다. 트랜스포머에 대한 아이디어는 2017년 Google Brain의 연구원들이 "주의력만 있으면 된다(Attention Is All You Need)"라는 제목의 논문에서 제안했습니다.

트랜스포머 모델은 본질적으로 자연어 처리에 사용되는 신경망 아키텍처입니다. 기본 개념은 먼저 광범위한 입력을 한꺼번에(또는 병렬로) 분석한 다음 가장 관련성이 높은 요소를 결정하는 것인데, 이를 "자기 주의(self-attention)"라고 합니다. 각 단락을 한 단어씩 순차적으로 읽는 대신 여러 단락을 즉시 읽고 전체 문맥에서 의미를 도출하는 매우 효율적인 리더라고 생각하면 됩니다.

트랜스포머 모델은 이러한 자기 주의 메커니즘을 통해 사람의 입력을 더 잘 이해하여 더 나은 결과물을 생성할 수 있습니다. 이를 통해 초고도 언어 번역 기능, 텍스트 요약은 물론 텍스트 생성까지 가능해졌습니다.

트랜스포머 모델은 Google의 BERT(양방향 인코더 표현을 통한 트랜스포머) 또는 ChatGPT(채팅 생성 사전 학습 트랜스포머)와 같은 강력한 도구의 기반이 되는 기술입니다. 하지만 이러한 도구는 컴퓨터 비전과 음성 인식에도 유용하기 때문에 텍스트 생성에만 사용되는 것은 아닙니다.

 

7. 대규모 언어 모델(LLM)

대규모 언어 모델(LLM: Large Language Models)은 대규모 텍스트 데이터 세트에 대해 학습된 강력한 Transformer 모델입니다. 수십억 또는 수조 개의 매개 변수가 있으며 주로 언어별 워크로드에 중점을 둡니다. ChatGPT 또는 GPT가 바로 LLM입니다. 클로드, 제미니, 라마는 모두 LLM의 예입니다. LLM 덕분에 고급 수준의 텍스트 생성, 텍스트 요약, 번역, 코드 생성, 작업 이해 및 실행 등을 수행할 수 있게 되었습니다.

LLM은 특정 지침 없이도 다양한 인터넷 규모의 데이터 세트에 대해 학습됩니다. 데이터에서 패턴과 연관성을 만들어냅니다. 때때로 이러한 패턴이 잘못될 수 있으며, 이때 사람이 특정 작업과 애플리케이션에 맞게 모델을 미세 조정해야 합니다.

현재 LLM의 주요 과제 중 하나는 윤리적 문제와 잘못된 정보의 가능성입니다. 학습 데이터 세트에 잘못된 정보와 편견이 포함될 수 있으며, 이러한 정보가 LLM에 전달될 수 있습니다. 실제로 Google의 검색 생성 경험이 사용자에게 잘못된 정보를 제공하기 시작한 이유 중 하나가 바로 이 때문입니다.

 

마치며

이제 7가지 주요 AI 용어에 대해 알게되었습니다. AI 세계는 빠르게 변화하고 있으므로 계속 학습하고 호기심을 유지하는 것이 필수적입니다.

반응형