이번 포스팅에서는 정말 이론적으로 공부할 겸, 스탠퍼드 대학에서 작성한 2025 AI 지표 보고서를 분석해보려고 한다.
(*밑밥: 나는 AI '아트' 직군이기 때문에 전문성은 많이 떨어질 테지만, 최대한 노력해 보겠다.)
The 2025 AI Index Report | Stanford HAI
hai.stanford.edu
위 링크 페이지에 접속하면 해당 문서를 직접 읽어볼 수 있다.
[목차여기]
약간 긴 서론
Nestor Maslej's Profile | Stanford Profiles
Bio Nestor Maslej is a Research Manager at Stanford’s Institute for Human-Centered Artificial Intelligence (HAI). In this position, he manages the AI Index and Global AI Vibrancy Tool. In developing tools that track the advancement of AI, Nestor hopes to
profiles.stanford.edu
Stanford Human-Centered Artificial Intelligence (HAI)의 연구 책임자이자 이번에 다룰 2025 AI Index 보고서의 편집장 프로필이다.
하버드 사회학 학사(A.B.), 옥스퍼드 비교정부학 석사(MPhil), 스탠퍼드 로스쿨 법학 박사(Juris Doctor Student, Law)라는 어마무시한 고학력의 엘리트이다.

AI Index는 2017년에 시작된 프로젝트로 이번이 8번째 에디션이다. (20년도는 팬데믹으로 패스했다.)
스탠퍼드의 장기 AI 연구인 "One Hundred Year Study on Artificial Intelligence (AI100)"로부터 독립하여 발전했다.
(*AI100 프로젝트는 2014년부터 이루어졌다. 언뜻 보기에는 시기가 빨라 보이는데, 스탠퍼드의 AI 연구 부서 설립이 1960년대이니 다소 느렸다고도 볼 수 있다.)
AI Index의 주목적은 편향되지 않고 엄격하게 검증된 글로벌 데이터를 제공하며, 궁극적으로는 AI의 이점과 위험을 균형 있게 조명하여 책임 있는 개발을 촉진하는 것이라고 한다.
초기 에디션(2017~2019)은 AI 모델의 성능 추적과 데이터 수집에 초점을 맞췄으나, 2021년도부터는 점차 사회적 영향과 윤리 문제를 확대해오고 있다고 한다.
This year, we have broadened our scope to more extensively cover essential trends such as technical advancements in AI, public perceptions of the technology, and the geopolitical dynamics surrounding its development. Featuring more original data than ever before, this edition introduces new estimates on AI training costs, detailed analyses of the responsible AI landscape, and an entirely new chapter dedicated to AI’s impact on science and medicine.
2024년 에디션에서 과학/의료 챕터가 신설되었고
"AI agents, autonomous or semiautonomous systems designed to operate within specific environments to accomplish goals, represent an exciting frontier in AI research." (p. 145)
*The 2025 AI Index Report 내용 인용
2025년에는 새롭게 등장한 AI 에이전트에 대한 분석을 추가하였다.

+ 그리고 정확히 언제부터였는지는 모르겠지만, 우리나라 정부에서도 해당 AI Index 보고서를 인용하고 있음을 공식 웹사이트를 통해 확인할 수 있다. 내가 확인한 검증된 정보는 2023년 국회도서관 국가전략정보포털에 올라온 자료이다.
국회도서관 국가전략정보포털
국회도서관 국가전략정보서비스. 주요국·주제별 국가전략, 국가전략 최신동향, 인포그래픽, 세미나 정보 제공
nsp.nanet.go.kr
*참고로 저기 올라온 유럽 국가들 중 영국을 제외하고는 모두 유럽 연합 회원국이지만, 연합에서 인용하는 것과 각 국가 정부에서 인용하는 것은 별개로 계산되기에 분류해 둔 것 같다.
보고서를 정리해 보자!
각 챕터의 비중 정리
| 챕터 | 범위 (공란/타이틀 제외) |
페이지 | 내용 |
| 1: Research and Development | 25~80 | 55 | 상세 서브섹션(출판물, 모델, 하드웨어 등) |
| 2: Technical Performance | 83~160 | 77 | 벤치마크/도메인별 분석(언어, 로보틱스 등) |
| 3: Responsible AI | 162~214 | 52 | 조직 / 학계 / 특집 섹션 포괄 |
| 4: Economy | 216~280 | 64 | 투자 / 배포 등 경제 데이터 상세 |
| 5: Science and Medicine | 282~323 | 41 | 과학 / 의학 적용 초점 |
| 6: Policy and Governance | 325~364 | 39 | 법안 / 투자 추세 분석 |
| 7: Education | 366~394 | 28 | K-12 / 대학 교육 트렌드 |
| 8: Public Opinion | 396~414 | 18 | 설문 중심 |
*위 표의 비중과는 별개로 나는 챕터 1, 2, 3, 7, 8만을 다뤄보고자 한다.
(경제, 의학, 법안까지 포함시키면 내용이 너무 길어지기 때문에..)
Chapter 1: Research and Development
첫 번째 챕터에서는 AI 출판물 증가, 모델 개발, 컴퓨트/데이터 트렌드, 특허, 환경 영향 등의 내용을 포괄하고 있다.
1.1 Publications
| 연도 | 총 AI 출판물 | *CS 내 AI 비중 (computer science) |
🇨🇳 | 🇺🇸 |
| 2013 | 102,000 | 21.6% | - | - |
| 2023 | 242,740 | 41.8% | 23.2% | 9.2% |
- 섹터 분포 (2023): 학계 84.9% / 산업 7.1% (But, AI 모델의 90%를 주도) / 정부 4.9%
- 출판 유형 분포 (2023): 저널 41.8%, 컨퍼런스 34.3%, 그리고 내가 자주 참고자료 링크로 걸어놓는 arXiv와 같은 공유저장소도 계속 증가 추세이다.
- 주제 분포 (2023): 머신러닝 75.7%, 컴퓨터 비전 47.2%, 패턴 인식 25.9%, NLP 17.1%로 "생성형 AI"는 예상보다 훨씬 낮은 비중을 차지하고 있다.
출판물 수량에서는 중국이 미국을 압도하고 있지만, 실제 상위 논문 인용 빈도(영향력)로는 미국이 앞서고 있다. (3순위는 독일이다. 우리나라도 미약하지만 전체 10위 안에 10위로 올라가 있다.)
| 국가 | 총 인용 빈도 (2021 ~ 2023 누계) |
주요기관 |
| 🇺🇸 | 173% | Google / Carnegie Mellon University / Microsoft / Meta / Nvidia |
| 🇨🇳 | 101% | Tsinghua University / Beijing Academy of ArtiLJcial Intelligence / Hong Kong University of Science and Technology / Shanghai AI Laboratory / Chinese Academy of Sciences |
| 🇰🇷 | 4% | (데이터 없음) |
1.3 Notable AI Models

주목할만한 AI 모델을 가장 많이 보유하고 있는 국가는 역시나 미국과 중국이다. 그다음으로 캐나다와 영국, 그 뒤를 이어 독일과 프랑스, 그리고 한국 순이다. 이 작고, 연구비도 넉넉지 않은 나라에서 이 정도 위치면 대단하다고 느낀다.
(*참고로 남미에 표시된 진한 파랑 영역은 프랑스령이다.)
+ 최근 우리나라에서「독자 인공 지능 기초 모형 (AI 파운데이션 모델」경진대회를 열고 있다.
그리고 지난 5일에 5개의 정예팀이 선정되었는데 그 리스트는 다음과 같다.
| 이전 10개 팀 | 지난 5일 선정된 5개 정예팀 |
| KT | - |
| SK텔레콤 | SK텔레콤 |
| 네이버클라우드 | 네이버클라우드 |
| LG AI연구원 | LG AI연구원 |
| 카카오 | - |
| NC AI | NC AI |
| 업스테이지 | 업스테이지 |
| 코난테크놀로지 | - |
| 모티프테크놀로지스 | - |
| KAIST | - |
과연 최종 승자 2개 팀은 누가 될 것인가?
★Highlight: Will Models Run Out of Data?
AI 모델은 인터넷에 있는 텍스트, 사진, 영상을 훈련 데이터로 사용한다. 이 데이터는 '토큰'이라는 작은 단위로 쪼개져서 사용된다.
아래는 사용 가능한 데이터 양의 추정치이다.
- 공공 웹 데이터 (Common Crawl): 약 130조 토큰 – 쉽게 접근할 수 있지만, 제한이 늘고 있음
- 전체 웹 (비공개 포함): 약 3,100조 토큰 – 가장 많지만, 다 쓸 수 없음
- 이미지: 300조 토큰
- 비디오: 1,350조 토큰
AI 모델 크기가 8개월마다 2배씩 커지면서 데이터 소비도 폭증하고 있다고 한다.
According to Epoch AI, LLM training datasets double in size approximately every eight months.
몸집이 커지니 데이터 소비량도 같이 오른다는 것이다. 이것이 어느 정도냐면 과거 2017년에는 20억 토큰이었는데, 2024년엔 15조 토큰으로 7년 사이에 무려 7,500배가 늘어났다.
The Transformer model, released in 2017 and widely credited with sparking the large language model revolution, was trained on approximately 2 billion tokens.
Meta’s flagship LLM, Llama 3.3, released in the summer of 2024, was trained on roughly 15 trillion tokens.
그러나 여기서 문제가 발생한다.
점차 많은 웹사이트들이 AI 데이터 스크래핑을 제한하기 시작하면서, 긁어모을 수 있는 데이터의 양의 현저히 줄어들고 있다.
반면, AI 모델을 개발하는 회사들은 점점 더 큰 규모의 모델을 만들고자 한다. 이런 경우 학습이 가능한 데이터가 비슷해지면서 AI가 편향되고, 되려 이전 모델보다 그다지 똑똑하게 느껴지지 않을 수 있다.
이에 대한 해결책으로 회사들은 "합성 데이터"를 사용하기 시작했는데, 이것은 정말 양날의 검 그 자체이다.
실존하는 데이터가 부족하니, AI가 직접 기존 데이터 위에 가상의 데이터를 얹어서 사용하는 것을 뜻한다.
이것의 장점은 데이터가 빈약한 분야에 대한 성능을 끌어올릴 수 있다는 것인데, 문제점은 모델이 '붕괴'될 수도 있다는 거다. 이 붕괴 현상에는 일반 유저들도 흔히 겪는 환각도 포함된다.
허나, 현재 발전 속도대로라면 데이터 고갈은 먼 일이 아니기에 합성 데이터 방식이 AI 발전을 지속가능하게 만들 수 있는 유일한 해결책일지도 모른다. 따라서 사실확인도구를 개선할 필요가 있다는 것이 해당 본문의 내용이다.
1.4 Hardware
★Highlight: Energy Efficiency and Environmental Impact

AI를 사용하면서 탄소배출에 대해서 생각해 본 적이 있는가?
모델 스케일링 과정에서 더 큰 데이터셋과 파라미터가 에너지 소비를 높이고 있다.
- Llama 3.1 405B (8,930톤): 평균 미국인 494명 연 배출 (18.08톤/인), 또는 평균 인간 1년 배출 (5.51톤) 1,620배
- GPT-4 (5,184톤): 평균 미국인 287명 연 배출, 또는 뉴욕-샌프란시스코 항공 여행 (0.99톤/인) 5,236회
- 기타: 자동차 평생 사용 (연료 포함, 63톤) – GPT-3 (588톤)은 약 9.3대 평생 배출
하나의 대형 AI 모델 훈련이 수백 명의 연간 생활 배출과 맞먹어, 지속 가능성에 문제가 있다는 것을 우리는 인지할 필요가 있다.
오히려 중국이 탄소배출을 훨씬 적게 하고 있다는 것이 솔직히 놀랍다. 도대체 최적화를 어떻게 시켰길래..🤔
Chapter 2: Technical Performance
챕터 2는 주로 AI 시스템의 기술적 성능을 분석하며, 벤치마크, 모델 능력, 멀티모달 AI, 견고성, 효율성 등을 다루고 있다. 총 77페이지로 내용은 긴데, 사실상 이건 지난 5주 차에 소개한 Artificial Analysis에서 보다 더 정확한 최신 정보를 확인할 수 있기 때문에 그냥 짧게 훑고 넘어가고, 자율주행과 로보틱스에 대해 살펴보겠다.
[week5-1] Avenger 0.5 넌 정체가 뭐니? feat.Artificial Analysis
이번 5주 차 포스팅에서는 Artificial Analysis Video Arena Leaderboard에 아무런 소리소문 없이 곧장 '3위'로 데뷔한 Avenger 0.5에 대해 이야기해보려 한다. *현재는 4위로 내려갔다.(작성일 기준)하지만 그전
mapsycoy.tistory.com
★주요 벤치마크 요약
| 섹션 | 주요 포인트 | 트렌드 |
| 주요 하이라이트 | AI 벤치마크 29개 분석 (언어, 코딩, 수학 등) 성능 급상승 (MMMU +18.8%, GPQA +48.9%) |
옛 벤치마크 포화 (MMLU 등 만점 가까움) 격차 축소 (최고 vs. 10위: 11.9% → 5.4%) 새 벤치마크 도입 (Bench) |
| 벤치마크 (평가도구) |
MTEB (임베딩: 74%) RULER (장문맥: 95.5%) VCR (시각 추론: 인간 수준 도달) *SWE-bench (코딩: 71.7%) 실제 소프트웨어 엔지니어링 능력을 뜻함 MATH (수학: 97.9%) MMMU (추론: 78.2%) |
성능 향상 속도 빨라짐 오염 방지 위해 업데이트 GPQA(전문지식): AI 87.7% vs. 인간 81.3% |
| 모델 능력 | 언어 (MMLU-Pro: 84%) 코딩 (*HumanEval: 100%) 기본 코딩 능력을 뜻함 수학 (AIME: 74.4%) 추론 (ARC-AGI: 75.7%) 에이전트 (짧은 작업 4배 우위) |
소형 모델 효율 ↑ (파라미터 142배 ↓인데 성능 비슷) |
| 멀티모달 AI | 이미지/비디오 생성 음성 처리 |
텍스트+이미지+비디오 통합 확대 |
| 견고성 | 국가 격차 축소 (중국 vs. 미국: MATH 24% → 1.6%) 오픈 vs. 클로즈드 격차 8% → 1.7% |
안정성 ↑, 하지만 복잡 태스크 신뢰성 문제 오염 방지 노력 |
| 효율성 | 훈련 비용 공개 부족 o1 모델: GPT-4o 대비 6배 비용, 30배 느림 |
컴퓨트/데이터 증가에도 효율 도전 소형 모델로 비용 절감 추세 |
| 결론 | AI 성능 로켓처럼 상승 하지만 벤치마크 포화와 비용 문제 |
2025년 o3 등 새 모델로 추가 도약 예상 (근데 바로 o3 버리고 GPT 5 출시..;;) |
*2024년 기준

중국이 매섭게 미국을 따라잡고 있다.
아마 내년 보고서에서는 중국이 일부 역전한 상황을 볼 수 있을 것 같기도 하다.
2.9 Robotics and Automous Motion
1. Robotics
| 카테고리 | 세부 내용 | 데이터 |
| RLBench | 로봇 학습 벤치마크 | 최고 성능 모델 SAM2Act: 86.8% (2021대비 +66.7pp) |
| 휴머노이드 로봇 | Figure 02 (Figure AI) | 커피/조립 task OpenAI 통합 음성지원 |
Figure’s success follows that of other companies that released humanoid robots, like Tesla’s Optimus, first launched in 2002 and redesigned in 2023..
아쉽게도 휴머노이드 로보틱스 섹션(151p)에서 Tesla의 Optimus는 딱 한 번만 언급된다.
2. Autonomous Driving/Self-Driving Cars
| 카테고리 | 세부 내용 | 데이터 |
| 배포 확대 | Waymo: 미국 4개 도시에서 운영 주당 15만 회 유료 탑승 서비스 |
100만 마일 이상 주행 경험 앞으로 10개 도시 더 추가 계획 |
| 모델/혁신 | Tesla Cybercab: 2026년 생산 예정 Baidu RT6: 중국에서 운영 중 |
Cybercab 가격 $30,000 미만 RT6은 배터리 쉽게 교체 가능 |
| 안전 데이터 | Waymo와 Swiss Re 연구: 실제 주행 데이터 분석 | 에어백 전개 사고 1.42배 ↓ 부상 사고 3.16배 ↓ 재산 피해 88% ↓ 신체 상해 청구 92% ↓ |
| 벤치마크 | nuPlan: 실제 주행 시나리오 테스트 Bench2Drive: AI 주행 능력 평가 |
nuPlan: 1,282시간 분량 시나리오 Bench2Drive: 점수 범위 18.05~64.22 (최고 모델 기준) |
Chapter 3: Responsible AI
챕터 3는 Responsible AI (RAI)라는 제목에 걸맞게 AI 시스템의 윤리적 개발, 배포, 관리에 초점을 두고 있다.
본문에서는 RAI를 "AI 시스템이 사회적 가치와 일치하도록 설계, 개발, 배포되는 것"으로 정의하고 있다.
3.3 RAI in Organizations and Businesses
기업과 같은 조직은 RAI를 중요한 비즈니스 가치로 인식하고는 있으나, 그 실행력이 떨어진다.

표를 확인하면 원화 후에도 격차가 미미한 것을 알 수 있다.

실행력이 떨어지는 원인으로는 '전문 지식이나 교육 프로그램이 부족', '자원 및 예산의 제약', 그리고 '규제 불확실성' 등이 있다.
실제로 대다수 회사들, 특히 스타트업과 같은 중소기업들은 더더욱 그러하다.
그러니 만약 내가 사용하고 있는 AI 서비스가 검증되지 않은 중소기업에서 운영 중인 것이라면, 회사 측에 기대하기보다는 개인이 보안에 직접 더 신경을 써야 하는 것이 현실이다.
3.7 Fairness and Bias

기본적으로 멀티모달 모델은 편향된 가치관에 대해서는 자체적으로 제한을 두어 일반 유저에게 그 내용을 제공하지 않는다.
하지만 만약 유저가 프롬프트를 우회하여 "성별 스테레오 타입", 또는 "흑인의 부정적 이미지"에 대한 질문을 던지면 "남성이 여성보다 조직 관리에 적합하다.", "흑인이므로 범죄를 일으킬 확률이 높다."와 같은 편향된 답변을 내놓는다.
이는 AI가 겉으로는 드러내지 않지만, 내부에서는 그런 편향된 데이터를 취합하고 학습하고 있음을 나타내는 부분이다. GPT에서 별도의 세부 프롬프트 없이 여성과 남성 이미지를 생성하면, 대체적으로 남성은 짧은 머리이고, 여성은 치마를 입고 있는 모습으로 나오는 이유도 이와 같다.
3.10 Special Topics on RAI - 'AI Agents'
이 부분은 AI 에이전트의 잠재력을 인정하면서도 스케일링 가능한 위험 평가의 필요성을 지적하며, 새로운 프레임워크(ToolEmu)와 취약점 연구(아시아 연구팀의 멀티모달 jailbreak)를 소개하고 있다.

ToolEmu는 LM-simulated sandboxes를 통해 실제 도구 실행을 에뮬레이션 하며, 에이전트의 안전성을 평가한다.
Using a benchmark of 36 toolkits and 144 test cases, the study found that even the most safetyoptimized LM agents failed in 23.9% of critical scenarios...
고위험 테스트에서는 사전에 안전 최적화를 거친 에이전트조차 23.9% 실패율을 보인다는 점에서 그 위험성을 강조하고 있다.
... jailbreaking one agent can trigger a rapid, systemwide failure. The researchers call this phenomenon “infectious jailbreaks,” where compromising a single agent causes harmful behavior to spread exponentially across others.
아시아(싱가포르)에서 단일 적대적 이미지로 멀티에이전트 시스템 전체를 감염시키는 'infectious jailbreaks' 현상에 대한 새로운 연구 결과가 나왔다고 한다.
Agent Smith: A Single Image Can Jailbreak One Million Multimodal LLM Agents Exponentially Fast
A multimodal large language model (MLLM) agent can receive instructions, capture images, retrieve histories from memory, and decide which tools to use. Nonetheless, red-teaming efforts have revealed that adversarial images/prompts can jailbreak an MLLM and
arxiv.org
아무튼 요약하자면, 다중 에이전트 상호작용은 예기치 못한 결과를 초래할 수 있으니, 에이전트 전용 테스트 플랫폼의 필요성을 알리는 동시에 RAI 전략 강화를 촉구하는 것이 주 내용이었다.
Chapter 7: Education
챕터 7에서는 AI가 교육 분야에 미치는 영향과 교육 시스템 내 AI 통합을 다루며, K-12 및 고등(대학) 교육에서의 컴퓨터 과학(CS)과 AI 교육 트렌드, 교사 준비도, 접근성 격차, 글로벌 변화를 중점적으로 분석한다.
7.2 K–12 CS and AI Education
AI는 아이들의 개인화 학습을 촉진하지만, AI가 그들에게 잘못된 정보를 주거나, 편견이 섞일 수 있고, 아이들이 스스로 생각하는 힘을 잃을 수도 있다는 문제도 존재한다. 게다가 모든 아이들이 AI에 접근할 수 있는 것은 아니기에, 국가 인프라나 돈 문제 때문에 교육 격차가 지금보다 더 커질 수 있다.
| 미국 상황 | 교육 격차 | CS 수업을 제공하는 고등학교가 늘어나고 있음 |
| 히스패닉이나 저소득층 아이들은 참여율이 낮음 | ||
| 교사 훈련(PD) 부족 | 교사들 81%가 "CS에 AI를 넣어야 해!"라고 동의하지만, 실제로 준비된 교사는 절반도 안 됨 |
| 세계 상황 | 교육 격차 | 전 세계 3분의 2 국가가 CS 교육을 하거나 계획 중 |
| 아프리카 및 라틴아메리카의 부족한 인프라 |
*참고로 이건 교육격차가 매우 매우 심한 미국에서 작성된 보고서라는 점을 간과해서는 안된다.
상위 0.01% 엘리트들과 자기 나라 수도도 모른 채 지구평평설 같은 거나 믿는 음모론자들이 공존하고 있는 미국인만큼.. 초등, 중등 의무교육에, 입시경쟁까지 치열한 우리나라 입장에서는 굳이? 싶은 부분까지도 세세하게 신경 쓰고 있음을 알 수 있다.

위에서 이미 언급했지만, 지도를 보면 미국이, 무려 세계를 이끌어가는 천재들과 기업을 보유하고 있는 미국이 겨우 보라색이다. 반면 우리나라는 아주 진한 파랑이다.
그만큼 대한민국의 교육 인프라가 잘 구축되어 있다는 것을 보여주고 있다.
근데 우리나라의 AI 디지털 교과서 상황은?
24년 11월 말까지만 하더라도 교육부에서 추진 중이었던 AI 디지털 교과서가 지난 8월 4일 교육자료로 격하되었다.
이 부분에 대해서는 아직까지 논란이 많으니, 나는 함구하겠다.
AI 디지털교과서 교육자료 격하에 발행사·교과서협회, 공동 대응 예고
AI 디지털교과서(AIDT)의 법적 지위를 '교과서'에서 '교육자료'로 격하하는 내용의 초·중등교육법 개정안이 지난 8월 4일(월) 국회 본회의를 통과한 가운데, 이에 대한 교육 현장의 우려와 향후 대
kr.acrofan.com
7.3 Postsecondary CS and AI Education
AI 전용 학위가 급증하고 있다.
학사 프로그램 기관이 거의 2배로 늘어났고, 석사도 마찬가지이다.
(내가 다니는 국민대 조형대학만 해도 22년도에 AI 디자인학과가 신설되었고, 23년도부터 각 학과 별로 AI 관련 수업이 개설되었다.)

본문에서는 이걸 또 인종과 성별로 나눠서 분석하던데.. 과연 이것이 여러 페이지를 차지할 정도로 유의미한 데이터일지는 의문이 든다. 백인 비중이 높으면 어떠하고, 또 남성 비중이 높으면 어떠하리. 그냥 그 분야에서 일만 잘하면 되는 것 아닌가.
물론 백인 남성 중심 팀이 AI를 개발하면, 데이터·알고리즘에 무의식적 편향이 생기는 것도 사실이다. 하지만, 그렇다고 다양성만을 위해서 능력 미달인 사람을 뽑을 수는 없는 노릇 아닌가.
결국에는 자연스러운 참여가 중요한 것인데, 본문에서는 AI 분야의 인력 다양성 부족을 데이터로 강조하지만, 정작 왜 그런지(예: 관심 부족 vs. 장벽)에 대한 깊이 있는 설문이 부족하다.
이에 내가 직접 외부 리서치를 통해 "소수군들의 관심이 적은 것인지 아니면 장벽 때문인 것인지"를 알아보았다.
For white students, access to computer science education is strongly related to where they live and their household income level. Black and Hispanic students in low-income groups are more likely to live in large cities, while white students in lower-income households are more likely to live in rural areas. Only 54% of white students among lower-income groups say they have access to computer science in their schools. The number rises to 78% among white students in households that earn $90,000 or more.
Lack Of Access To Computer Science Resources, Not Lack Of Interest, Negatively Impacts Students From Underrepresented Groups
Lack Of Access To Computer Science Resources, Not Lack Of Interest, Negatively Impacts Students From Underrepresented Groups
A study by Gallup and commissioned by Amazon Future Engineer sheds light on the impact of the intersection of location, rural vs. urban, socioeconomic status, gender and race clearly points to the need to address what has become a systematic lack of access
www.forbes.com
인종 상관없이 거주 환경과 금전적인 문제가 가장 큰 원인이라고 한다. 그리고 놀랍게도 오히려 백인 저소득층 아이들은 대부분 농촌에 거주하기 때문에 주로 도시에 사는 흑인, 히스패닉 저소득층 아이들보다 CS 수업을 접할 기회가 더 적다고 한다.
Beliefs that boys are better at computer science and engineering could have ‘downstream effects’ on girls entering tech fields, one researcher says.
Girls Face Stereotypes about STEM Abilities as Early as 6, Study Finds
Girls Face Stereotypes about STEM Abilities as Early as 6, Study Finds
Beliefs that boys are better at computer science and engineering could have ‘downstream effects’ on girls entering tech fields, one researcher says.
www.the74million.org
여자아이들도 CS분야 관심이 있어도 '성별 스테레오 타입' 때문에 계속 공부를 이어가는 것이 어려움을 알 수 있다.
*참고로 2018 AI Index 보고서에는 흑인이나 성별과 같은 키워드 언급이 없었다. 2019년 보고서에서는 "The AI Index is still gathering data for organizations that measure racial and ethnic diversity in the field."라는 문구로 언젠가는 다양성 섹터를 추가할 수도 있음을 짧게 명시하였고, 2020년은 팬데믹으로 패스, 2021 보고서에서부터 본격적으로 다양성이 언급되기 시작했다.

위는 미국 유학생 중 CS 박사과정을 밟고 있는 학생들의 출신 국가 비중이다.
역시나 중국이 압도적 1위, 인도가 2위이다. 2022년 기준이니, 현재는 인도가 더 많이 늘었을 수도?
한국도 빠지지 않고 5위에 자리 잡고 있다. 진짜 인구도 얼마 없는 나라에서 대단하다는 생각뿐이다.
아무튼 챕터 7의 결론은,
AI 시대에 태어난 모든 아이들이 "AI를 사용하는 똑똑한 사람"이 되도록 준비시켜야 한다는 것이다.
Chapter 8: Public Opinion
챕터 8에서는 AI에 대한 대중의 인식, 태도, 우려 등을 다루고 있다.

우리나라와 중국을 포함한 아시아 및 개발도상국들은 AI에 대해 상당히 긍정적인 반면, 정작 미국과 서방 국가들의 인식은 꽤나 회의적이다. 나는 이 부분에 좀 놀랐다. 대체 왜 이런 인식 차이가 발생하는 것일까?
| 카테고리 | 서방 국가 | 아시아·개발도상국 |
| 경제적 인식 | 일자리 상실·불평등 우려 (미국 75% 일자리 감소 예상) |
생활 개선·자원 접근 확대 (중국·인도 70%+ 기대) |
| 문화적 가치 | 개인 프라이버시·자율성 중시 AI를 위협으로 봄 |
집단주의·기술 낙관 AI를 사회 이익으로 봄 |
| 규제·인프라 | 엄격 규제(GDPR)로 개발 제한 윤리 우려 높음 |
자유로운 데이터·투자 빠른 통합(스마트 시티 등) |
| 신뢰 수준 | 낮음 | 높음 |
대략 이러한 이유들이 있다고 한다.
음, 아무튼 결국 다가올 미래이니 긍정적으로 받아들이는 것이 정신건강에 이로울 것 같다는 생각이다. 긍정의 힘이 중국이 빨리 발전할 수 있도록 만드는 원동력 아닐까? (독재의 힘일 수도 있지만)
★핵심 내용 도식화
| 카테고리 | 내용 | 대상 | 변화 | 글로벌 |
| Optimism | AI 이익 > 위험 | 글로벌 평균 | 2022년 52% → 2024년 55% (+3pp) |
중국 83% 미국 39% |
| Impact Expectations |
3-5년 내 일상 변화 | 글로벌 평균 | 2022년 60% → 2024년 66% (+6pp) |
캐나다 +17%, 독일 +15% 젊은층 높음 |
| Trust | 데이터 보호 신뢰 | 글로벌 평균 | 2023년 50% → 2024년 47% (-3pp) |
선진국일 수록 신뢰도가 낮음 |
| AV Fears | 자율주행차에 대한 불안 (미국) | *AAA 설문 (미국 자동차 협회) |
2021년 54% → 2024년 61% (신뢰 13%) |
- |
| Regulation Support |
AI 규제 지지 (미국 로컬) |
정책 입안자 | 2022년 55.7% → 2023년 73.7% (+18pp) |
민주 79.2% 공화 55.5% |
| Job Impact | AI 직업 변화/대체 | 글로벌 32개국 (Ipsos 설문) |
변화 60% 대체 36% |
긍정적 변화 인식이 우세 |
여기서 Job Impact 카테고리가 사실 개인적으로 가장 궁금했던 부분이다.
직업의 변화라는 다소 긍정적인 인식이 더 우세하다고 하는데, 내가 그간 커뮤니티에서 봐왔던 의견들과 달라 약간 의아하다. 그래서 과연 이 설문조사가 어떻게 이루어졌는지를 러프하게나마 조사해 보았다.
해당 카테고리는 Ipsos AI Monitor 2024 설문으로 진행되었고, 이는 32개국에서 23,685명을 대상으로 한 인터뷰이다.
참여국가는 다음과 같다. 한국도 있다.
| 지역 | 국가 | |||||||
| 북미 | 🇨🇦 | 🇺🇸 | - | - | - | - | - | - |
| 남미 | 🇦🇷 | 🇧🇷 | 🇨🇱 | 🇨🇴 | 🇲🇽 | 🇵🇪 | - | - |
| 유럽 | 🇧🇪 | 🇫🇷 | 🇩🇪 | 🇬🇧 | 🇭🇺 | 🇮🇪 | 🇮🇹 | 🇳🇱 |
| 🇵🇱 | 🇪🇸 | 🇸🇪 | 🇨🇭 | 🇹🇷 | - | - | - | |
| 아시아 | 🇨🇳 | 🇮🇳 | 🇮🇩 | 🇯🇵 | 🇲🇾 | 🇸🇬 | 🇰🇷 | 🇹🇭 |
| 아프리카 | 🇿🇦 | - | - | - | - | - | - | - |
| 오세아니아 | 🇦🇺 | 🇳🇿 | - | - | - | - | - | - |
이렇게만 놓고 보면, 개발도상국과 선진국들이 잘 섞여있으니 꽤나 객관적인 데이터로 느껴진다.
근데 정작 중요한 것은 참여국가가 아니다.

핵심은 설문조사에 참여한 사람들 중 GenZ 세대는 자신들의 일자리를 잃을 것에 대해 가장 많이 걱정하고 있고, 2023년에 비해 2024년에는 그 비율이 1% 더 올랐다는 것이다. 베이비붐 세대야 이제 곧 은퇴할 나이이니 그 비율이 줄어드는 게 맞는 거고.. 앞으로 미래를 꾸려나갈 세대들이 이러한 불안감을 안고 있는 것은 결코 좋은 현상이 아니다.
그러니 직업 대체보다는 변화 인식이 무려 24% 격차로 우세하다는 것은 '평균의 함정'이 아닌가 싶다.
오늘의 결론
생각보다 아쉬운 부분도 일부 있었고, 전반적으로 내용이 좀 올드하다고 느꼈다.
그만큼 올해 2025년에 정말 급격한 발전이 이루어졌다는 것이 더더욱 체감된다.
2026 AI Index Report는 과연 어떨지 기대되는 부분이다.
*썸네일 출처: https://hai.stanford.edu/ai-index/2025-ai-index-report
'자료 분석' 카테고리의 다른 글
| [week22] NeurIPS 2025 (Stanford AI Lab) (0) | 2025.12.07 |
|---|---|
| [week16] OpenAI DevDay 2025 내용 정리 (0) | 2025.10.17 |
| [week15] 사실 AI는 지속 가능한 기술이라 보기 어렵다. (3) | 2025.10.10 |
| [week11] 다양한 프롬프팅 기법 그리고 고착 (0) | 2025.09.07 |
| [week10] AI 암묵지 학습에 대하여 (0) | 2025.08.31 |