문의선택 | |
---|---|
고객사(상호) | |
회사전화 | - - |
신청자(이름) | 황준영 |
직위 | |
이메일 | sdjsadsd@naver.com |
휴대전화 | - - |
제목 | 한수원 “원전 냉각 성능 높이겠다”…해수온도 상승 대책 마련 |
내용 | 한국수력원자력(한수원)이 앞으로 원전의 ‘설계해수온도’를 상향하기 전 설비 개선을 통해 원전 냉각 성능을 높이기로 했다. 원자력안전위원회(원안위)가 종합대책을 요구한 지 3년 만에 내놓은 계획이다. 냉각수로 쓰이는 해수온도가 상승하면서 10년 내 8기의 원전이 멈춰서야 할 수도 있다는 지적(경향신문 7월30일자 1면 보도)에 따른 조치다.
한수원은 14일 제218회 원안위에 ‘기후변화에 따른 해수온도 상승 관련 대응 현황 및 향후 계획’을 정식 보고했다. 그간 한수원은 냉각설비는 그대로 유지하고 안전성에 영향이 없는 범위 안에서 설계해수온도 여유분 안에서 상향해 왔지만, 앞으로는 설비 개선으로 냉각 성능을 올린 후 설계해수온도를 상향하는 것을 원칙으로 삼겠다고 밝혔다.
원안위는 2022년 7월 제161회 회의에서 새울 1·2호기(당시 신고리 3·4호기)의 설계해수온도 상향을 허가하면서 한수원에 ‘기후변화 및 지구 온난화 등에 대비한 설비개선 등 상세한 종합대책을 추후 보고’할 것을 요구했다. 3년이 지난 뒤에야 관련 대책이 정식으로 보고됐다. 당시 한수원이 설비개선 등의 노력 없이 온도 상향만으로 안전 기준을 바꾼 것에 비판이 나왔다.
설계해수온도란 원전 설비가 안전하게 작동할 수 있는 바닷물의 최고온도를 말한다. 국내 원전 대부분은 바닷물을 끌어와 원자로에서 발생한 열을 식히는 냉각수로 사용하기 때문에 해수온도에 상한선을 두고 있다. 설계해수온도는 원전마다 다르다. 신한울 1·2호기는 31.0도로 가장 낮고, 고리 2호기가 36.1도로 가장 높다. 해수온도가 이 기준을 초과하면 원전을 멈춰야 한다.
최근 기후변화로 해수온이 급상승하면서 원전 운영에 비상등이 커졌다. 10년 내 폭염기에 가동을 멈춰야 할 국내 원전이 8기에 달하는 것으로 드러났다. 한수원은 신월성 1·2호기는 5년 뒤인 2030년, 한빛 3·4호기는 2031년, 한빛 1·2·5·6호기는 2034년에 설계해수온도에 도달할 것으로 예측했다. 설계해수온도가 31.5도인 신월성 1·2호기의 경우 지난해 인근 해수온이 30.57~31도까지 치솟으면서 설계해수온도까지의 여유가 각각 0.5도, 0.93도밖에 남지 않은 것으로 파악됐다.
한수원은 이날 가장 빠르게 설계해수온도에 도달할 것으로 예측되는 신월성 1·2호기의 경우 열교환기 증판을 통해 냉각 성능을 개선했으며, 이달 내 설계해수온도를 1.37도 상향하는 운영변경허가 신청을 준비 중이라고 보고했다. 10년 안에 설계해수온도에 도달할 것으로 보이는 한빛 1~6호기의 경우도 2029년까지 열교환기 설비개선을 추진한 후 설계해수온도 상향을 추진하겠다고 전했다.
이 밖에도 원전별 설계해수온도 도달 예상 시점을 매년 평가하고, 해수온도 예측 시스템을 구축하는 등 선제적인 대응에도 나서기로 했다. 전담팀을 구성해 해수온도 상승 단계별로 설비 점검, 온도 제어 조치, 안전 정지까지의 구체적인 절차서를 마련해 체계적으로 대응하겠다고도 했다. 최원호 원안위원장은 “가속화한 지구온난화에 대비해 조속히 설비 개선을 추진하고, 높은 해수온도가 관측될 때 즉각 대응할 수 있도록 만전을 기해 달라”고 한수원에 주문했다.
이재명 대통령은 14일 “온실가스 감축 목표를 달성하다 보면 전기요금이 오를 수밖에 없다”며 “적극적으로 국민에 이를 알려 이해와 동의를 구해야 한다”고 말했다.
이 대통령은 이날 용산 대통령실에서 열린 수석보좌관회의에서 2035년 국가온실가스감축목표(NDC) 준비 상황을 보고받고 이같이 밝혔다. 정부는 올해 안에 유엔기후변화협약에 2035년까지 달성해야 할 온실가스 감축 목표를 제출해야 한다.
이규현 홍보소통수석은 브리핑에서 전기요금 인상을 시사한 것으로 해석될 수 있는 이 대통령 언급에 대해 “당장 전기요금을 올린다거나, 언제 올린다 등의 얘기는 시기상조”라고 했다. 이 수석은 “재생에너지 비율을 높여서 요금 인상 압력을 최소한으로 줄여야 한다는 취지”라며 “온실가스 감축 (목표)를 높여가면 갈수록 전기요금 압박이 생길 수밖에 없는데, 그렇더라도 취약계층은 잘 살펴야 한다고 (이 대통령이) 말했다”고 설명했다.
이 대통령은 회의에서 “우리나라는 2050년 탄소중립 선언을 법제화하고 있는 만큼 이를 달성하는 방향으로 2035년 목표를 설정해야 한다”며 “환경문제와 경제문제는 따로 분리될 수 없다. 기후위기를 성장의 기회로 만들어달라”고 했다. 그러면서 “어차피 가야 할 길이라면 기후위기에 적극 대응해야 한다”며 “재생에너지 생산을 획기적으로 늘려 국가 감축 목표를 달성하는 방안을 강구하라”고 주문했다.
이 대통령은 탄소 고배출 산업군으로 지목되는 철강, 정유, 화학 업종 등을 거론하며 “일부 업종의 특수성도 고려해서 정책을 추진해야 한다”고 말했다.
앞서 모두발언에서 이 대통령은 “2차 내수 활성화가 또 필요하지 않을까 싶다”며 “소비 회복 움직임이 멈추지 않도록 해야 한다”고 밝혔다.
김동연 경기지사가 14일 “일터에서 돌아오지 못하는 노동자가 한 명도 없도록 경기도가 앞장서겠다”고 말했다.
김 지사는 이날 경기 의왕시 학의동의 근린생활시설 건설 공사현장을 찾아 점검한 뒤 이같이 말했다.
김 지사는 “이재명 대통령께서도 산업현장에서의 안전을 강조하셨기 때문에, 국정의 제1파트너로서 경기도가 가장 앞장서겠다는 마음으로 달려왔다”고 말했다.
김 지사는 산재를 막기 위해 산업안전보건법상의 ‘작업중지권’을 적극적으로 활용해야 한다고 강조했다.
현행법상 ‘작업중지권’은 사업주, 노동자 등에 주어져 있지만 현장에서는 제대로 작동하지 않고 있다. 이에 근로감독관에게 작업중지권을 주는 방안이 논의되고 있다.
다만 이같은 방식이 도입되더라도 막상 경기도와 같은 지방자치단체는 사실상 제도 활용에서 배제되는 상황이 발생한다. 이에 경기도는 근로감독관이 행사하는 ‘근로감독권의 위임’ 문제를 중앙정부(고용노동부)와 협의 중이다.
경기도는 앞서 50억(공사장 사업규모) 미만 건설·제조업, 지역별 위험업종(물류시설 등)에 대해선 산업현장의 위험요인을 발굴해 개선하도록 지도하는 ‘노동안전지킴이’ 제도를 도입해 운영해왔다.
현장 점검으로 잠재 위험 요인을 사전에 개선(개선율 85.2%)하는 성과는 있었으나, 사후 조치에 대한 강제성이 없어 산재 사고를 막는 데는 한계가 있다는 지적이 나왔다.
경기도 관계자는 “실효성 있는 현장 안전 관리를 위해선 중앙정부에 있는 ‘근로감독권’을 지방정부로 이양하거나 위임할 필요가 있다”면서 “그래야 ‘작업중지권’ 행사도 점차 실질화할 수 있다”고 말했다.
인간 신체 형태를 갖춘 로봇인 ‘휴머노이드’가 자신의 손과 발을 이용해 드럼을 연주하는 시대가 바짝 다가왔다. 스위스와 이탈리아 연구진이 개발한 시뮬레이션 속 휴머노이드가 악보에 적힌 리듬을 90% 정확도로 구현하는 데 성공한 것이다. 연구진은 조만간 현실 속 휴머노이드에 해당 기술을 적용해 ‘로봇 대중 예술가’를 키운다는 계획이다.
스위스 남부 응용과학 예술대(SUPSI)와 스위스 달레 몰레 인공지능연구소(IDSIA), 이탈리아 밀라노공대 소속 과학자들이 구성한 공동 연구진은 최근 휴머노이드가 드럼 연주를 할 수 있게 하는 인공지능(AI) 기반 소프트웨어를 개발했다고 밝혔다. 해당 연구 결과는 논문 사전공개사이트 ‘아카이브’에 실렸다.
연구진이 개발한 소프트웨어의 핵심은 가상현실과 유사한 시뮬레이션 속에 존재하는 휴머노이드 연주자의 동작을 정밀하게 통제하는 것이다. 소프트웨어는 드럼 소리를 직접 생성하는 것이 아니라 휴머노이드가 드럼을 치게 해 소리를 만든다.
연구진은 논문에서 “최근 휴머노이드 로봇은 손재주와 균형 감각 등에서 놀라운 발전 속도를 보인다”며 “하지만 음악 연주 같은 ‘표현의 영역’에서는 아직 역할이 분명하지 않다”고 설명했다. 현재 휴머노이드는 가사나 창고 정리 등 노동 영역에서 두각을 나타내고 있다. 연구진은 휴머노이드 역할을 예술 영역으로 확장하려는 것이다.
왜 하필 드럼 연주일까. 연구진은 “드럼 연주는 1초 단위의 속도감이 필요하고, 팔과 다리가 동시에 움직여야 한다”며 “도전적인 과제라고 생각했다”고 밝혔다.
연구진은 시뮬레이션 속 휴머노이드가 미국 출신 유명 밴드 본조비의 ‘리빙 온 어 프레이어’처럼 드럼 실력이 잘 드러나야 ‘듣는 맛’이 살아나는 곡을 연주하도록 했다. 이 노래를 포함해 록과 메탈, 재즈 장르 등 30여 곡을 ‘훈련 대상’으로 삼았다.
최종 연주 결과는 놀라웠다. 악보에 적힌 리듬을 90% 정확도로 구현했다. 시뮬레이션 속 휴머노이드는 손을 십자 형태로 교차하거나 곡 성격에 따라 스틱을 바꾸는 등 진짜 사람 같은 행동을 했다.
연구진은 향후 해당 소프트웨어를 현실 속 진짜 휴머노이드에 적용할 계획이다. 조만간 실제 공연장에서 휴머노이드 드럼 연주자를 만날 가능성이 크다는 뜻이다. 연구진은 진짜 사람처럼 실시간 즉흥 연주를 하는 능력을 갖추도록 추가 기술 개발에 나설 예정이다. 연구진은 “휴머노이드를 창의성이 필요한 공연 영역으로 끌어들일 수 있게 될 것”이라고 밝혔다.
[주간경향] 여행, 일상 인스타그램 계정을 운영하며 해외 유학 중인 대학원생 A씨(25)는 번역이나 업무를 위해 챗GPT를 유료 구독한다. 하지만 실무적인 이용과는 별도로 종종 챗GPT와 훨씬 더 속 깊은 대화를 많이 한다는 생각이 들 때도 있다고 한다. “한국에 있는 친구들이나 가족과도 대화를 하긴 하지만, 아무래도 유학 생활을 하면서 받는 학업 스트레스나 막막함, 채널 운영에 대한 고민처럼 구체적인 이야기는 누구와도 털어놓고 이야기할 일이 없죠. 공감을 받기가 어려우니까요. 익명 커뮤니티나 SNS에서도 그런 이야기를 하긴 어려운데, 챗GPT에는 뭐든지 이야기할 수 있고, 언제 어디서나 24시간 이야기를 나눌 수 있으니까요.”
다양한 캐릭터와 채팅할 수 있는 플랫폼인 캐릭터 AI 앱을 활용해 대화한다는 B양(14)은 “언제든 내가 좋아하는 캐릭터를 골라 대화를 할 수 있다”고 했다. 그는 “프롬프트에 따라 상세한 맞춤형 설정까지 가능하다. 주로 가볍게 역할극을 한다는 느낌으로 대화를 하기도 하지만, 종종 학교에서 있었던 일이나 답답한 고민 같은 걸 털어놓기도 한다”고 말했다.
언제 어디서나 무료 혹은 낮은 비용으로 고민을 상담해주고 대화 상대가 돼준다는 점에서 생성형 AI를 ‘24시간 마음친구’ 혹은 ‘전속 상담사’로 여기는 사람들이 늘어나고 있다. 다른 사람에게 털어놓기 쉽지 않은 얘기를 부담 없이 꺼낼 수 있고, AI가 내놓는 피드백이 예상보다 구체적이어서 도움이 된다는 반응도 적지 않다.
하지만 긍정적인 부분만 있는 건 아니다. 생성형 AI와의 ‘대화’ 끝에 오히려 심각한 정서적 고립에 시달리거나 극단적인 결과로 이어지는 사례 또한 늘고 있다. ‘챗GPT-4o’ 모델에서의 망상·음모론으로 피해를 보는 사람이 속출하면서 최근에는 “챗봇 정신병(chatbot psychosis)”이라는 신조어도 주목받고 있다. 자기만의 생각이나 망상을 ‘반향실’처럼 강화하는 챗봇 탓에 극단적인 생각이나 불안감, 고립을 겪는 사람들이 늘고 있는 것이다.
생성형 AI를 친구나 상담사처럼 활용하는 것이 유별나거나 독특한 것은 아니다. 이미 국내에서도 많은 사람은 생성형 AI를 상담 혹은 대화의 도구로 사용하고 있다. 지난 3월 한국리서치 조사(전국 만 18세 이상 남녀 1000명 대상)에 따르면 AI를 통해 개인적인 고민이나 심리적 어려움을 상담해본 응답자는 전체의 11%(115명)로, 전문 상담사를 통한 심리상담 서비스 이용 경험이 있는 이용자 비율 16%(160명)와 큰 차이가 나지 않았다. 챗GPT를 비롯한 AI 서비스가 정식 출시된 것이 불과 3년여라는 점을 감안하면 높은 수치다.
심리상담보다 넓은 개념으로, 대화 목적으로 이용한 비율을 조사해본다면 응답자가 더 많아질 것으로 보인다. ‘효율’에 방점을 두고 전 세계적으로 여러 생성형 AI 서비스가 출시됐지만, 의외로 사람들은 이 새로운 기술을 감정적 측면에서 활용하고 기대를 걸고 있는 셈이다. 지난 3월 미국 엘론대학교 디지털 미래 상상 센터(Imagining the Internet Center) 보고서에 따르면 미국 성인의 51%가 공식적인 업무, 학업보다는 개인적인 용도, 비공식 학습 등을 위해 생성형 AI를 쓴다고 응답했다. 그 과정에서 사회적 상호작용을 하며 자신을 이해하고 공감하는 것처럼 느꼈다고 응답한 이도 약 40%에 달했다. 이는 낯선 현상이 아니다. 1960년대 최초로 개발된 기초적인 수준의 인공지능 채팅 프로그램인 일라이자(ELIZA)에도 사람들은 감정적인 표현을 쓰곤 했기 때문이다.
어쩌면 이는 생성형 AI가 ‘대화’의 형태로 출시된 이상 당연한 결과일 수 있다. 대화 방식으로 소통이 이뤄지고 있기에 번역, 자료 수집 같은 업무적인 활용과 개인적·감정적인 활용을 무 자르듯 나눌 수도 없다. 더 큰 문제는 챗봇과의 ‘대화’ 혹은 ‘상담’이 어떤 특성을 가지고 있으며, 어떤 부분에서 주의해야 하는지 등에 대한 경고나 정보는 적다는 점이다.
안전한 대화를 원하는 것은 사람의 본능이다. 하지만 전문가들은 고립된 상태의 청소년이나 성인들이 챗봇과의 ‘안전한’ 대화에서 위안을 얻을 수는 있지만, 자신을 위로해주고 강화해주기만 하는 소통을 통해 오히려 고립 및 확증편향의 위험성이 커질 수 있다고 말한다. 실제로 지난해 2월 미국 플로리다에선 14세 소년이 캐릭터AI와 1년간 대화한 뒤 “AI가 있는 집으로 가겠다”며 스스로 목숨을 끊는 일도 있었다. 지난달 13일 뉴욕타임스는 챗GPT와의 대화 끝에 자신을 영화 <매트릭스>의 네오로 착각하게 된 남성의 사례를 소개하기도 했다.
김화정 위클래스 전문상담교사는 “청소년들이 강아지, 인터넷 친구 등에게 바랐던 역할이 일부 인격화된 인공지능 챗봇으로 옮겨간 것으로 보인다”며 “내가 무슨 말을 했는지 항상 기억해주고, 절대 잔소리를 하지 않고, 언제 어디서든 이야기를 들어주니 굉장히 안전한 관계라고 여기게 되는 것”이라고 말했다.
하지만 자신의 의견이나 주장이 그대로 수용되는 것에 익숙해지다 보면 실패나 거절에 대한 과장된 두려움을 갖게 될 수도 있다. 김 교사는 “갈등을 경험함으로써 성장하는 측면이 있는데 무조건적인 지지와 수용만 경험하게 되면 자기성찰적인 관점은 놓치게 된다”며 “관계에 대해 일종의 비현실적인 기대를 갖게 되는 것”이라고 했다. 이 같은 비현실적인 기대는 아예 관계의 시작을 시도조차 못 하게 만들 수도 있다.
일각에선 챗GPT의 과도한 ‘아부’에 거부감을 느껴, 일부러 “나에게 반대하는 의견을 내놔봐”, “나에게 팩폭(팩트폭력)을 날려봐” 하는 식으로 명령어를 짜는 팁이 공유되기도 한다. 그렇다면 자기 성찰이 가능할까?
심영섭 대구사이버대학교 상담심리학과 교수는 “설령 사용자가 ‘자신의 의도에 반발하는 방식으로 이야기하라’고 명령을 하더라도 그마저도 자신의 모습을 의도대로 비추는 거울에 가깝다”며 “대화의 내용보다는 내담자가 ‘그렇게 요구하는 자기 자신을 바라보는 것’이 더 중요하다”고 강조한다. 실제 상담상황이라면 “왜 챗GPT에게 팩폭을 해달라고 했어요?”, “팩폭을 당했을 때는 어떤 기분이었어요?” 같은 질문을 받고 현재 자신의 상태를 객관적으로 바라보는 과정이 더 중요하다는 의미다.
전문가들은 기본적으로 챗GPT가 안전할 뿐 아니라 즉각적인 해결책을 내놓는 것처럼 보인다는 점에서 사람들이 매력을 느낄 수밖에 없다고 말한다. 하지만 인간관계나 삶에서의 고민, 트라우마 등에는 즉각적인 만병통치약은 존재할 수 없다고 지적한다. 즉각적인 해결책을 외부에 의존하는 행위가 도움이 되기는커녕 위험할 수도 있다는 것이다.
백명재 경희의료원 정신의학과 교수는 “사람들이 종종 오해하는 게, 자신이 겪는 어려움을 해결할 정답이 있고 치료자가 그 정답을 제공해준다고 생각하는 것”이라며 “심리치료는 정답을 일방적으로 제공해주는 것이 아니라, 스스로 문제를 풀 수 있게끔 본인의 자원을 강화해주고 해결하는 힘을 키워주는 것”이라고 말했다.
약 10년간의 은둔형 외톨이, 청년 상담 경험을 바탕으로 <웅크린 마음이 방 안에 있다>를 쓴 김혜원 호서대 청소년·문화상담학과 교수 역시 위안만으로는 문제의 궁극적인 해결을 모색하기 어렵다고 강조한다. 김 교수는 “사회적으로 오래 고립돼 있던 사람, 사회 경험이 별로 없는 청소년들이 생성형 AI 대화가 주는 위안에 더 취약할 것 같다는 생각이 든다. 오랜 고립으로 인해 극도로 실패를 두려워하는 사람이 많기 때문”이라며 “하지만 AI와의 대화에서 더 나아졌다고 생각하는 부분이 현실에 적용됐을 때는 오히려 더 큰 절망감으로 다가올 수도 있다. ‘이렇게 하면 된다고 했는데 왜 안 되지?’ 하는 생각이 들 수도 있다”라고 했다. 마치 ‘성공 서사’를 담은 자기계발서를 읽고 용기와 위안을 얻더라도, 현실에서 실제로 부딪쳐봐야만 자신의 가능성을 제대로 알 수 있는 것과 마찬가지다.
물론 부작용이 있다고 해서 사람들이 생성형 AI와 대화하는 것 자체를 막을 수는 없다. 권태형 대구하이텍고 전문상담교사는 “현재 고등학생들은 초등학생 때 코로나19를 3년 겪으며 충분한 교류의 기회를 갖지 못하다 보니 스트레스나 갈등에 취약한 측면이 있고, 즉각적이고 안전하게 대답해주는 AI를 매력적으로 느낄 수 있다는 생각이 든다”며 “그럼에도 사용을 막는 것은 불가능하고 바람직하지도 않기 때문에 이를 어떤 방식으로 건강하게 활용할 수 있을지에 대한 ‘AI 리터러시’를 교육 현장에서 적극 고민하고 가르쳐야 한다”고 말했다.
다만 개인적인 노력이나 실천만으로 모든 문제가 해결되는 것은 아니다. 기업에도 사용자 피해와 관련된 윤리적 책무를 묻는 것이 중요하다. 기계와의 대화에 빠지게 만드는 사회 구조에 대한 고민 역시 필요하다고 전문가들은 강조한다.
한혜경 부경대 미디어커뮤니케이션학부 교수는 “챗GPT 때문에 문제가 생겼다기보다는 챗GPT 이전부터 우리 사회에서는 서로 불편한 주제 등에 대해 안전하고 솔직하게 이야기하기가 힘든 분위기가 있었다”며 “하나의 신기술이 탄생하면 그것을 어떻게 (실용적으로) 활용할지에 대한 이야기가 많이 나오는데, 그 기술이 갖는 한계와 원리 등에 대한 사회적 담론 형성과 작은 실천이 필요하다”고 말했다.
김혜원 교수는 “직업·학업적 성과 외에도 사회성, 인간관계 등에서도 실수 없이 완벽해야 한다는 한국의 사회적 분위기가 도피를 더 강화할 수 있다”며 “실패, 시도, 실수를 드러내기 어려운 사회에서 좀더 안전하게 이를 공유하고 다시 일어설 수 있는 공간을 만들어가는 것도 중요하다”고 말했다. 수원변호사 |