본문 바로가기

반복과 심호흡/타임체인

실리콘 밸리, 학계에서 AI 연구 인력 빼가기

728x90
[2024년 3월 12일 washingtonpost]
실리콘 밸리, 학계에서 AI 연구 인력 빼가기
눈에 띄는 연봉과 값비싼 컴퓨팅 파워를 제공하는 AI 기업들이 학계의 인재를 빼앗아가고 있습니다.

페이 페이 리가 2017년 3월 샌프란시스코에서 열린 구글 컨퍼런스에서 연설하고 있습니다. 리는 현재 연구자들이 AI 분야에서 소외되고 있다고 주장하는 목소리의 선두에 서 있습니다. (폴 친/샌프란시스코 크로니클/게티 이미지)

  • AI 연구 자원 격차: 메타, 구글, 마이크로소프트와 같은 기업들이 AI에 수십억 달러를 투자하면서, 심지어 가장 부유한 대학들과도 자원 격차가 커지고 있습니다.
  • 독립적 연구의 위협: 고가의 컴퓨팅 파워와 데이터가 필요한 AI 시스템 연구를 위해 학자들은 종종 기술 기업과 협력하게 되며, 이는 독립적인 연구를 저해할 수 있습니다.
  • 산업의 영향력: AI 분야의 주요 발전은 대부분 기술 기업에 의해 주도되고 있으며, 이는 연구자들이 상업적 이용에 맞춰 연구를 조정하도록 유도하고 있습니다.
  • 공공 섹터의 지원: 국가 AI 연구 자원(National AI Research Resource) 프로젝트에 대한 기술 기업의 기부와 더불어, 국립 과학 재단(National Science Foundation)은 AI 연구를 지원하기 위해 대학 주도의 국립 AI 연구소를 설립하는 데 1억 4천만 달러를 투자하였습니다.

이러한 내용은 AI 연구 분야에서의 자원 격차와 독립적 연구의 중요성, 그리고 공공 섹터와 산업 간의 관계에 대한 통찰을 제공합니다.

[Bing Chat Copilot의 페이지 요약]

[기사 원문 링크] Silicon Valley is pricing academics out of AI research - The Washington Post


[Quillbot으로 기사 요약]

'인공 지능의 대모'인 페이페이 리는 메타, 구글, 마이크로소프트와 같은 거대 기술 기업을 따라잡기 위해 바이든 대통령에게 국가 차원의 컴퓨팅 파워와 데이터 세트 웨어하우스에 자금을 지원해 달라고 요청했습니다. AI 모델을 사용하는 데 드는 높은 비용은 기술에 대한 독립적인 연구에 영향을 미치고 있으며, 심지어 가장 부유한 대학과도 자원 격차가 벌어지고 있습니다. Meta는 AI 모델에서 방대한 계산을 실행하는 데 필요한 특수 컴퓨터 칩(GPU) 35만 개를 조달하는 것을 목표로 하고 있으며, 스탠포드 자연어 처리 그룹은 모든 작업을 위해 68개의 GPU를 보유하고 있습니다.

기술 기업의 고액 연봉은 학계의 스타 인재를 빼앗아가고 있으며, 힘의 역학 관계는 미묘한 방식으로 이 분야를 형성하고 있으며, AI 학자들은 상업적 용도에 맞게 연구를 조정하도록 압박하고 있습니다. 정책 입안자들은 자금 격차를 해소하기 위한 조치를 취하고 있으며, 국립과학재단은 1억 4천만 달러를 투자하여 대학 주도의 7개 국립 AI 연구소를 설립하여 AI가 어떻게 기후 변화를 완화하고 교육을 개선할 수 있는지 연구할 것이라고 발표했습니다.

거대 기술 기업들은 데이터 센터를 통해 막대한 양의 컴퓨팅 파워를 조달하고 고가의 GPU를 이용할 수 있습니다. 100명이 넘는 최고의 인공지능 연구자들이 인터넷 플랫폼의 계정 정지나 법적 조치의 위협 없이 연구자들이 제품을 면밀히 조사할 수 있도록 제너레이티브 AI 기업들이 연구자들에게 법적, 기술적 세이프 하버를 제공할 것을 촉구했습니다.

 

기사의 맥락을 읽는  이미지

지난해 스탠퍼드대학교 인간 중심 AI 연구소의 복도에서 한 학생이 작업하고 있습니다. (워싱턴 포스트의 코리 스즈키)


이 기관은 AI를 안전하게 보호하는 임무를 맡고 있습니다. 그 사무실은 무너지고 있습니다.
-국립 표준 기술 연구소의 자금 조달 문제는 Biden 행정부의 AI 작업을 위태롭게 할 수 있습니다.

1988년 8월 23일, 국립표준국으로 알려진 국립표준기술연구소의 새 간판. (국립표준기술연구소 디지털 아카이브)

이 페이지는 미국의 National Institute of Standards and Technology (NIST) 가 겪고 있는 재정적 어려움과 그로 인한 시설의 노후화 문제에 대해 다루고 있습니다. 주요 내용은 다음과 같습니다:

  • 시설 문제: NIST의 연구원들은 검은 곰팡이, 자주 발생하는 정전, 그리고 인터넷 연결 문제로 인해 어려움을 겪고 있습니다. 누수로 인해 일부 연구원들은 실험실에서 잠을 자야 하며, 큰 파일을 전송할 수 없어 하드 드라이브를 직접 옮겨야 합니다.
  • AI 안전 연구소: 바이든 행정부는 NIST에 새로운 AI 모델의 보안 결함과 기타 위험을 평가하는 업무를 맡겼지만, 예산 제약으로 인해 기술 팀의 인력이 부족하고 대부분의 시설이 기준에 미치지 못하고 있습니다.
  • 예산 삭감: NIST의 전체 예산이 10% 이상 삭감되었으며, 새로운 AI 안전 연구소에는 1000만 달러가 투자되었지만, 이는 구글과 마이크로소프트와 같은 기술 거대 기업들이 AI 개발에 투자하는 수십억 달러에 비하면 턱없이 부족합니다.
  • 산업 영향: 기술 회사들이 AI 모델 검사를 위한 비싼 컴퓨팅 인프라에 기여하고 있으며, 이로 인해 NIST가 산업의 영향을 받을 수 있다는 우려가 있습니다. 아마존은 컴퓨팅 크레딧으로 500만 달러를 기부했고, 마이크로소프트는 엔지니어링 팀과 컴퓨팅 자원을 제공할 예정입니다.

게인즈빌에 있는 플로리다 대학교의 말라코프스키 홀은 AI에 필요한 특수 컴퓨터 칩인 GPU를 만드는 엔비디아의 공동 설립자 크리스 말라코프스키의 이름을 따서 명명되었습니다. (블룸버그/블룸버그 경유 게티 이미지)

 


폭발적인 수요로 전력 부족에 시달리는 미국
-AI와 청정 기술 제조업의 붐은 미국의 전력망을 위기에 몰아넣고 있습니다. 유틸리티는 이를 따라잡을 수 없습니다.

(동영상: 로라 파딜라 카스텔라노스의 일러스트레이션/워싱턴 포스트)

  • 전력 수요 급증: 미국 전역에서 전력 부족 위험이 증가하고 있으며, 데이터 센터와 클린테크 공장의 증가로 인해 전력망이 한계에 도달하고 있습니다.
  • AI의 영향: 인공지능의 급속한 혁신이 전통적인 데이터 센터보다 훨씬 많은 전력을 필요로 하는 대규모 컴퓨팅 인프라의 건설을 촉진하고 있습니다.
  • 그리드 업그레이드 필요: 새로운 에너지 발전소와 대규모 소비자들이 전력망에 연결되기 위한 대기 시간이 증가하면서, 전력망의 확장과 업그레이드가 시급히 필요합니다.
  • 에너지 전환 위협: 전력 부족은 청정 에너지로의 전환을 저해하고 있으며, 전기차와 가정용 기기에 필요한 에너지 공급에 영향을 미칠 수 있습니다.

AI 이미지 생성기가 세상을 보는 방식은 이렇습니다.
-이 스토리의 모든 이미지는 AI가 생성한 것입니다.

이 페이지는 AI 이미지 생성기가 세계를 어떻게 보는지에 대한 기사입니다. 주요 내용은 다음과 같습니다:

  • AI의 편견: AI 이미지 도구들은 아시아 여성을 성적으로, 아프리카인을 원시적으로, 유럽인을 세계적으로, 지도자를 남성으로, 죄수를 흑인으로 묘사하는 등의 고정관념을 만들어냅니다.
  • 데이터 문제: 이러한 고정관념은 실제 세계를 반영하는 것이 아니라, 기술을 훈련시키는 데이터에서 비롯됩니다. 인터넷에서 가져온 이 데이터는 포르노그래피, 여성혐오, 폭력, 편견 등으로 오염되어 있을 수 있습니다.
  • Stable Diffusion의 예: Stable Diffusion과 같은 AI 이미지 생성기는 성별과 인종에 대한 편견을 확대시키고 있음에도 불구하고, 데이터를 정화하기 위한 노력에도 불구하고 여전히 고정관념적인 트로프로 기본 설정됩니다.
  • 국가별 집의 이미지: Stable Diffusion XL에 각국의 집을 요청했을 때, 중국의 전통적인 곡선 지붕 주택, 상하이의 고층 아파트가 아닌 미국의 이상화된 주택, 인도의 먼지 낀 점토 구조물 등 각 지역에 대한 고정관념적인 개념을 반환했습니다.

엔비디아에서 만든 GPU. (조엘 사겟/AFP/게티 이미지)


최고 AI 연구자들은 OpenAI, 메타 등이 독립적인 평가를 방해한다고 말합니다.
-기술 회사 정책이 독립적인 AI 연구에 찬물을 끼얹고 있다고 공개 서한이 밝혔습니다.

2월 16일 파리에서 공개된 OpenAI의 새로운 인공지능 인공 지능 도구 소라가 생성한 비디오의 한 프레임. (스테파노 렐란디니/AFP/게티 이미지)

  • AI 연구자들의 공개 서한: 100명 이상의 AI 전문가들이 AI 회사들에게 그들의 시스템에 대한 조사를 허용할 것을 요구하는 공개 서한에 서명했습니다. 이들은 회사의 엄격한 규칙이 악용을 방지하기는커녕 독립적인 연구에 장애를 초래한다고 주장합니다.
  • 연구자들의 우려: 연구자들은 AI 모델의 안전성을 테스트하려 할 때 계정이 정지되거나 소송을 당할까 두려워합니다.
  • 안전한 연구 환경의 필요성: 연구자들은 AI 회사들이 소셜 미디어 플랫폼의 실수를 반복하지 말고, 제품을 검증할 수 있는 법적이고 기술적인 안전한 환경을 제공해야 한다고 강조합니다.
  • 독립적인 조사의 중요성: 외부 연구는 GPT-4와 같은 널리 사용되는 모델의 취약점을 밝혀냈으며, 이러한 조사 없이는 잠재적인 위험에 대한 인식이 제한될 수 있습니다.

이 페이지는 AI 연구와 관련된 중요한 문제들을 다루고 있으며, AI 기술의 안전성과 투명성에 대한 논의를 촉진하는 내용을 담고 있습니다.

 

728x90