본문 바로가기
정보/심리

sns와 ai가 청소년에게 미치는 영향에 대한 기존 연구방법의 한계

by angel_0 2025. 1. 28.
반응형

 

 

 

인터넷 기반 기술이 청소년의 정신 건강에 미치는 부정적 영향을 다룬 기존 연구의 한계와 문제점을 비판적으로 평가하고, 이러한 한계를 해결함으로써 인공지능(AI)이 어린이와 청소년에게 미치는 영향을 이해하기 위한 정확한 증거 기반을 구축하는 방법을 논의합니다. 

  1. 기존 연구 검토: 어린이와 청소년의 정신 건강에 기술이 미치는 영향을 다룬 최근 리뷰를 비판적으로 검토하여, 증거 기반의 한계를 확인합니다.
  2. 방법론적 문제점 논의: 기존 연구의 한계를 초래한 가장 중요한 방법론적 문제들을 분석합니다.
  3. 효과적인 개선 방안 제안: 견고한 방법론을 기반으로 이러한 한계를 해결하는 방법을 제안하며, 특히 AI와 청소년의 웰빙에 대한 연구에서 활용할 수 있는 새로운 접근 방식을 언급합니다.
  4. 미래 연구 방향 제시: 빠르게 변화하는 디지털 환경 속에서 아동 및 청소년이 기술과 상호작용하는 방식을 연구하기 위한 체계적이고 엄격한 접근 방식을 제안합니다.

 

서론

미국 과학, 공학, 의학 아카데미(NASEM)의 보고서는 "사회적 미디어가 청소년 건강에 미치는 영향을 인구 수준에서 변화시킨다는 결론을 뒷받침할 증거가 부족하다"고 결론지었습니다. 하지만 여러 정부는 청소년의 정신 건강을 보호하기 위해 사회적 미디어 사용을 제한하는 가이드라인과 법률을 도입했습니다. 이는 연구 결과와 정책 및 미디어 담론 사이의 괴리를 보여줍니다.

사회적 미디어를 포함한 다양한 스크린 기반 기술(텔레비전, 비디오 게임, 온라인 게임, 스마트폰 등)에 대한 연구는 혁신 자체를 문제화하면서도 실질적인 가이드를 제공하지 못한 채 우려를 반복적으로 제기했습니다. 이러한 과거의 실수를 되풀이하지 않기 위해서는 AI가 청소년에게 미칠 영향을 깊이 이해하고 연구를 강화할 필요가 있습니다.

특히, 영국 규제 기관 Ofcom의 2023년 보고서에 따르면 7-12세 어린이의 40%와 13-17세 청소년의 80%가 이미 생성형 AI 도구와 서비스를 사용하고 있다고 밝혔습니다. 이는 과거 소셜 미디어의 확산 속도를 뛰어넘는 결과로, AI가 청소년과 상호작용하는 방식은 지속적으로 변화하고 있습니다. 인간과 유사한 AI의 등장이 예고된 만큼, 소셜 미디어 연구에서의 문제점을 교훈 삼아 AI 연구의 타당성과 신뢰성을 높이는 것이 중요합니다.

주요 내용

  1. 이론과 연구 질문: 기존 연구에서 이론적 기반이 부족하거나 모호한 연구 질문이 설정된 문제를 지적합니다.
  2. 구성 개념과 측정 방법: 측정 지표의 불일치와 신뢰성 부족이 연구 결과의 신뢰성을 저하시켰음을 논의합니다.
  3. 샘플과 데이터셋: 대표성 부족과 표본 편향 문제가 연구의 일반화 가능성을 제한했다고 비판합니다.
  4. 연구 설계와 분석: 종단적 연구 부족, 상관관계와 인과관계의 혼동 등 설계상의 문제를 지적합니다.
  5. 해석과 정책 적용: 연구 결과가 잘못 해석되거나 정책으로 연결될 때 과장되거나 왜곡된 사례를 제시합니다.

 

핵심 메시지

  • 기술 혁신은 아동기를 지속적으로 재구성하며, 어린이와 청소년에게 심리적 해를 끼칠 수 있다는 우려를 불러일으킨다.
  • 건강 정책 결정은 일관성이 없거나 인과관계를 증명하지 못하거나 일반화할 수 없는 온라인 피해 증거를 기반으로 시행되었다.
  • 소셜 미디어에 관한 연구는 종종 단일 원인적 기술 결정론으로 축소되어, 기술 사용과 정신 건강에 영향을 미치는 맥락적 요인을 간과한다.
  • 어린이들이 인공지능(AI)에 점점 더 많이 노출됨에 따라, AI의 영향을 이해하려면 전 세계적으로 대표성 있는 데이터와 견고한 인과 추론 방법론 사이의 균형을 맞추는 것이 필요하다.
  • 기술에 대한 선제적 규제는 연구자, 기술 산업, 정책 결정자, 실무자, 청소년, 부모 간의 협력이 필수적이다.
  • 이러한 문제를 해결하려면 노출 요인, 맥락적 요인, 일반화 가능성, 인과 방법론, 정책 권고안을 종합적으로 고려하기 위한 온라인 자료를 수집하는 것이 중요하다.

협력을 위한 체계적 프레임워크

인공지능(AI)과 같은 신흥 기술로부터 어린이와 청소년을 잠재적 유해 효과로부터 보호하기 위해 정책 개발을 이끌어갈 잘 조율된 의제가 필요하다. 우리의 목표는 연령, 기능, 시간 제한을 명시하는 포괄적 법률이 아니라, 유연하고 목표 지향적인 기술 규제 접근 방식을 제안하는 것이다. 성공적인 프레임워크는 독립 연구자, 기술 부문, 정책 결정자, 기타 이해관계자들 간의 협력을 필요로 하며, 각자가 연구 과정의 각 단계에서 자신만의 전문성을 제공해야 한다(그림 2). 학계와 독립 연구자는 연구의 타당성과 번역 가능성을 개선하고, 명확하고 현실적인 인과적 질문을 정의하며, 세계적으로 대표성 있는 표본을 확보하고, 인구 간 및 인구 내 이질성을 해결하는 데 가장 중요한 역할을 한다. 그러나 모든 이해관계자는 노출, 결과, 혼란 요인을 식별하는 데 기여해야 하며, 소셜 미디어 및 게임에 대한 근거 없는 정책 조언으로 이어졌던 주요 문제를 인지해야 한다. 따라서 우리는 연구자, 기술 부문, 정책 결정자, 그리고 아동 및 청소년 보호에 관여하는 모든 사람들을 위해 사용할 수 있는 자원 세트를 개발할 것을 제안한다. 이 자원 세트는 새로운 데이터가 등장함에 따라 업데이트될 수 있는, 빠르게 변화하는 기술 분야를 반영하는 살아있는 온라인 리소스가 되어야 한다.


측정 리포지토리(Repository)

모든 이해관계자들과의 탐색적 작업을 통해 어린이와 청소년이 노출되는 주요 AI 유형, 측정된 혼란 요인과 미측정된 혼란 요인, 잠재적 조정자 및 매개 변수를 식별할 수 있다. 연구자들은 노출-결과 매핑에 대해 구조적 인과 모델(Structural Causal Model) 프레임워크와 유사한 방식으로 각 노출-결과를 위한 DAG(Directed Acyclic Graph)를 구축하고, 실험 설계나 분석 계획에 포함될 중요 측정 예시를 개략적으로 제시할 수 있다(그림 3). 그러나 각 연구와 분석은 연구되는 인구의 노출과 결과뿐만 아니라 어린이와 청소년에게 영향을 미칠 가능성이 있는 다른 맥락적 요인에 따라 고유할 것이다. 탐색적 작업 결과에 따라 리포지토리는 자가 보고 측정(예: AI에 대한 개인 경험 및 태도), 행정 데이터(예: 인구 밀도 및 녹지 공간), 그리고 이상적으로는 통합된 AI 노출 유형 및 해당 조정 방식에 대한 정보를 제공하는 온라인 플랫폼의 동의된 데이터 또는 익명 데이터를 포함할 수 있다. 경제적 상황, 사회적 불평등, 기후, 전쟁, 범죄, 지역 공공 서비스와 같은 맥락적 혼란 요인을 포괄적으로 식별함으로써 단일 원인적 기술 결정론을 피할 수 있다. 이러한 리포지토리는 이상적으로는 국제 이해관계자 연합에 의해 감독되며, 자원의 광범위한 공유와 문화적·지리적 차이를 반영한 소통을 지원하여 더 세밀한 접근 방식을 요구하는 경우에 대비할 수 있다.


유해성 정도

측정 리포지토리를 보완하여 AI와 관련된 잠재적 유해 결과를 가장 심각한 범죄(예: 아동 온라인 성 착취 및 인신매매)에서부터 사이버 괴롭힘, 인종차별, 혐오 표현 등 기타 유해 콘텐츠까지 세분화하는 포괄적이고 살아있는 분류 체계를 개발할 것을 제안한다. 이 분류 체계는 프라이버시 및 신체 이미지 문제와 같은 다양한 우려 사항에 대한 맥락을 제공하며, 이는 아동과 청소년의 건강과 웰빙에 부정적인 영향을 미칠 수 있다. 직접적 유해성(예: 인신매매, 아동 온라인 성학대, 자해 또는 자살 관련 자료)과 간접적 유해성(예: 허위정보, 알고리즘 순위, 소비자를 조종하는 유해 전략) 간의 명확한 경계를 설정하는 것은 도전 과제가 될 것이다. 국제적인 다중 이해관계자 합의와 강력한 증거가 필요하며, 온라인 유해성에 대한 연구를 진전시키고 우선순위를 식별하며 관련 전문 지식과 자원 네트워크를 구축하는 데 기여할 것이다.


기술 부문 데이터 통합

기술 사용자에 대한 보다 대표성 있는 세계적 표본을 확보하고 다양한 AI 구현의 효과에 대한 통찰을 촉진하기 위해 기술 부문과의 협력 모델이 유익할 수 있다. 특히, 데이터 기부 모델을 강조하고 싶다. 이는 법적 프레임워크(예: 영국의 GDPR, 미국의 CCPA, 일본의 개인정보보호법)를 활용하여 사용자가 자신의 데이터를 복사해 연구자와 공유할 권리를 보장한다. 또한, API(Application Programming Interfaces) 활용, 웹 스크래핑, 제3자 추적 도구, 모의 소셜 미디어 플랫폼 등의 옵션도 고려될 수 있다. 이러한 모델은 잠재적 노출, 조정자, 매개 변수를 식별하는 관찰 연구와 AI 노출을 실험적으로 조작하는 데 도움을 줄 수 있다. 다른 형태의 협력 가능성도 모든 이해관계자들과 논의하며 조사할 필요가 있다.


증거 계층 구조

정책 결정자, 임상가, 교사, 부모, 그리고 청소년들 자신이 증가하는 증거를 명확하고 간단하게 이해할 수 있어야 한다. 모든 새로 나오는 연구 결과를 수집, 필터링, 평가하는 과정은 품질, 인과 추론, 일반화 가능성, 정책, 교육, 건강 관리, 사회 복지와의 관련성을 평가하기 위한 명확한 기준에 의해 안내되어야 한다. 증거의 계층 구조(예: 증거 준비도)는 이러한 프레임워크를 안내하는 데 사용될 수 있다. 독립 연구자, 정책 자문가, 교육자, 청소년 자문가, 과학 작가로 구성된 팀이 Cochrane 스타일의 체계적인 리뷰를 통해 정책적 시사점을 제공할 것을 제안한다.


추가 고려 사항

저소득 및 중간 소득 국가(LMIC)에서 아동과 청소년의 대표성을 개선하는 것과 인과 방법론 및 증거 준비도를 강화하는 것 간의 우선순위 간 갈등이 발생할 가능성이 있다. LMIC 기반 연구자와 조직은 지역 및 문화 간의 차이를 이해하는 데 중요한 전문 지식을 가지고 있지만, 연구 자금 및 시간, 기타 자원에 대한 접근이 제한적이기 때문이다. 이 문제를 해결하려면 효과적인 협력 전략을 수립하여 실질적 및 재정적으로 LMIC 연구를 지원해야 한다.


 

 

 

결론

우리는 소셜 미디어가 청소년 정신 건강에 미치는 부정적인 영향에 대한 대중적, 연구적, 법적 관심에 집중하고 있지만, 청소년들은 이미 AI와 상호작용하는 새로운 방식을 채택하고 있다. 연구 및 증거 기반 정책이 이러한 새로운 상호작용에 뒤처지지 않으려면, 기술의 영향을 체계적으로 조사하고, 단일 원인론을 거부하며, 데이터를 지속적으로 통합하여 정책적 시사점을 도출해야 한다. 과거 경험에서 배우지 못한다면, 우리는 10년 후에도 여전히 소셜 미디어를 현재 라디오 드라마, 만화, 보드게임처럼 과대 해석하며, AI를 안전하고 유익하게 만드는 데 실패할 수 있다.

 

저자는 AI와 같은 신흥 기술이 청소년에게 미치는 영향을 이해하기 위해 협력적이고 증거 기반의 접근 방식을 제안합니다. 이를 통해 연구, 정책, 교육, 돌봄 분야에서 기술의 영향을 보다 효과적으로 평가하고 적용할 수 있도록 돕는 것이 목표입니다.

728x90
반응형

댓글