washingtonpost.com
인공지능에 관한 5가지 질문과 답변
- 인공지능에 대한 5가지 질문과 답변: 이 기사는 인공지능(AI)이 무엇인지, 어떤 현재 상태와 미래 가능성을 가지고 있는지, 어떤 위험과 도전을 안고 있는지에 대해 간단하고 중요한 질문들에 대한 답변을 제공한다.
- AI의 정의와 한계: AI는 인간의 능력을 초월하는 정보, 개념, 언어를 수집하고 종합할 수 있는 놀라운 도구이지만, 감정이나 자각을 가진 존재는 아니다. 인공일반지능(AGI)은 아직 이론적인 영역에 머물고 있다.
- AI 콘텐츠의 생성과 감지 : AI는 매번 새로운 응답을 생성하기 때문에, AI가 생성한 것인지 아닌지를 증명하거나 판별하기는 거의 불가능하다. 텍스트는 쉽게 복사하고 붙여넣을 수 있으므로, 교육이나 저작권 등의 분야에서 AI의 영향력은 매우 크다. 이미지, 오디오, 비디오는 조금 더 복잡하지만, 디지털 워터마크나 포렌식 기술을 통해 AI의 흔적을 찾을 수 있다.
- AI와 개인정보 보호: AI를 사용할 때는 일반적인 디지털 서비스와 마찬가지로 사용자 동의서를 통해 자신의 데이터를 AI 회사에 제공한다. 사용자는 자신의 데이터가 익명화될 것이라는 합리적인 기대를 가질 수 있지만, 그것은 AI 회사의 정보보안 팀의 능력에 달려있다.
- AI에 대한 과도한 의존과 책임: AI는 많은 비즈니스 분야에서 조용히 활용되고 있지만, 아직 많은 불안감과 저항이 존재한다. AI를 너무 빨리 도입하거나 실패하면 엄청난 비용과 피해를 초래할 수 있다. 그러므로 AI의 관리와 규제는 매우 중요하다.
[Bing Chat Copilot의 페이지 요약]
[기사 원문 링크] 5 questions about artificial intelligence, answered - The Washington Post
[Quillbot으로 기사 요약]
인공 지능(AI)은 기후 변화를 비롯한 인류의 가장 난해한 문제를 해결할 수 있는 잠재력을 지닌 강력한 도구입니다. 하지만 인공지능에 대한 객관적이고 과학적인 한계점은 없으며, 인공지능의 지능은 주관적입니다. ChatGPT나 Bard와 같은 대규모 언어 모델과 생성형 AI 제품은 인간의 99.9% 능력을 넘어서는 정보, 개념, 언어를 수집하고 합성할 수 있다면 지능적인 것으로 간주됩니다. 일부 연구자와 기업들은 인간의 두뇌보다 뛰어난 기계로 스스로 제어하고, 학습하고, 느낄 수 있는 인공 일반 지능을 추구하고 있습니다. AI 콘텐츠의 규모가 커지고 사용자층이 늘어나는 만큼 AI 콘텐츠 생성에 신중을 기해야 합니다. 수십억 개의 컴퓨터 뉴런이 작동하여 정보를 합성하고 독창적인 반응을 만들어 내기 때문에 현재로서는 AI가 생성한 콘텐츠를 감지하는 것이 불가능합니다. 하지만 기업들은 규제 및 정부 요건을 준수하기 위해 콘텐츠에 디지털 워터마크를 생성하기 위해 노력하고 있습니다. 개인은 AI와의 사용자 계약이 주요 검색 또는 소셜 미디어 회사와의 계약과 유사하기 때문에 AI를 사용하는 동안 개인 정보에 대한 프라이버시를 유지할 수 있습니다. 그러나 산업계는 특히 AI에 대한 과도한 의존에 취약하며 불편함, 일자리 손실, 경쟁으로 인해 이니셔티브 발표를 주저하고 있습니다.
*아래의 더보기를 누시면 전문을 보실 수 있습니다.
기사 전문 번역
인공 지능은 인류가 만든 가장 놀라운 도구 중 하나입니다. 또한 가장 논란이 많은 도구 중 하나이기도 합니다. 인공지능의 선구적인 연구자와 개발자 중 일부는 인공지능을 적절히 관리하지 않으면 언젠가 인공지능이 인류 멸종의 원인이 될 수 있다고 생각합니다. 또한 AI가 기후 변화와 같은 인류의 가장 난해한 문제를 해결할 수 있는 능력이 있다고 생각하는 기술자들도 많습니다. 하지만 AI란 무엇일까요? 그리고 기술의 현재 상태는 어떤가요?
가장 기본적이면서도 중요한 몇 가지 질문에 대한 답변을 준비했으며, 기술의 빠른 속도를 따라잡기 위해 가능한 한 많이 수정하고 업데이트할 것입니다.
"인공 지능"이란 무엇인가요?
인공지능을 정의하는 객관적이거나 과학적인 기준은 없습니다.
사람들은 대규모 언어 모델과 생성형 AI 제품(ChatGPT, Bard 등)을 '지능적'인 것으로 통합해 왔지만, 이는 모두 보는 사람의 관점에 따라 달라집니다. 제 생각에는 인간의 99.9%가 할 수 있는 능력을 뛰어넘는 폭과 속도로 정보, 개념, 언어를 수집하고 합성할 수 있는 것이라면 무엇이든 지능적이라고 생각합니다! ChatGPT가 우르두어로 라이오넬 리치 스타일의 소네트를 즉석에서 작성하거나 팔란티르의 메타컨스텔레이션이 수백 개의 서로 다른 라이브 피드와 데이터 스트림을 통합하여 우크라이나 군인들을 위한 작전 대시보드를 생성하는 것이 바로 AI입니다.
어떤 사람들은 이런 종류의 지능을 지각이나 감각 능력으로 착각하기도 합니다. 하지만 어떤 AI 모델에도 감정이 있다는 증거는 없습니다. 일부 연구자와 기업들은 인간의 두뇌보다 모든 면에서 우월한 기계로서 스스로 제어하고, 학습하고, 어쩌면 느낄 수 있는 인공 일반 지능을 추구하고 있습니다. 하지만 이는 아직 이론의 영역에 머물러 있습니다.
인공지능을 더 이상 학습시키지 않기 위해 인공지능 콘텐츠를 제작할 때 주의해야 할 점은 무엇일까요?
그렇지 않습니다. 개별 프롬프트는 큰 차이를 만들지 않습니다. 모델도 많고 사용자 기반도 많습니다. 일부 모델은 이제 합성 데이터와 프롬프트를 학습하기 때문에 전체 지식과 학습 기반에 대한 여러분의 기여는 더욱 의미가 없어집니다.
어떤 콘텐츠가 AI에 의해 생성되었는지 어떻게 확인할 수 있나요?
적어도 지금 당장은 불가능합니다. LLM(대규모 언어 모델)에 질문을 하면 수십억 개의 컴퓨터 뉴런이 - 우리가 부분적으로만 이해하는 방식으로 - 정보를 합성하고 독창적인 응답을 생성하기 위해 작동합니다. 이 프로세스는 매번 독창적인 답변을 생성하기 때문에 인공지능이 생성한 답변을 다시 만들어서 증명하는 것은 거의 불가능합니다. 텍스트를 사용하면 LLM의 내용을 잘라내어 자신의 형식이나 문서에 붙여넣는 것이 매우 쉽습니다. 그렇기 때문에 ChatGPT의 등장은 학교와 교사들에게 큰 충격을 주었습니다.
이미지, 오디오, 비디오는 좀 더 복잡하고 포렌식을 잘하면 (현재로서는) 합성 또는 AI의 출처를 정확히 찾아낼 수 있습니다. 하지만 시간이 많이 걸리는 작업입니다. 많은 기업이 콘텐츠에 디지털 워터마크를 생성하기 위해 노력하고 있는데, 이는 부분적으로는 규제 기관과 정부가 가까운 미래에 이러한 식별자를 보유하도록 강제할 수 있기 때문입니다. (이는 바이든 대통령의 최근 행정명령에서 최우선 과제 중 하나입니다.) 하지만 이러한 기술은 아직 완벽하지 않습니다.
개인이 AI를 사용하면서 개인정보에 대한 프라이버시를 어떻게 유지할 수 있을까요?
로보어드바이저와 맺는 사용자 계약은 Google, Meta 또는 기타 주요 검색 또는 소셜 미디어 회사에서 맹목적으로 클릭한 것과 크게 다르지 않습니다. 대부분의 경우 사용자는 제품 사용 권한을 얻는 대가로 자신의 데이터(AI의 경우, 자신이 입력한 프롬프트의 기록)를 공유합니다. 사용자는 자신의 사용 내역이 익명으로 처리될 것이라는 합리적인 기대가 있지만, 다른 디지털 기업의 사례에서 보았듯이 이러한 기대는 AI 회사의 정보 보안 팀에 따라 달라질 수 있습니다.
AI에 대한 과도한 의존에 특히 취약하거나 너무 일찍 AI에 너무 많은 책임을 부여하는 산업이 있나요?
비기술 기업 세계에서 AI와 관련된 많은 일들이 보이지 않는 곳에서 조용히 진행되고 있습니다. 여전히 AI에 대한 불편한 시선이 많고, 기존 기업들은 1) 고객에게 겁을 주고, 2) 일자리가 위태로울 수 있는 직원들이 소외감을 느끼며, 3) 경쟁사에 계획이 알려질까 봐 일반적으로 이니셔티브를 발표하기를 꺼려합니다. 하지만 우리는 너무 빨리 움직였다가 엄청난 실패를 맛본 기업들의 사례를 많이 보아왔습니다. 그리고 앞으로도 더 많은 사례를 보게 될 것입니다.
[DeepL로 기사 번역]