도대체.... 기상청은 맨날 수퍼컴퓨터 도입한다, 최신 시스템을 도입한다...
이런 소식만 들려주고 사람들에게 와닿는 서비스 향상은 이루지 못하는 겁니까?
최근에는 유비쿼터스 무슨 시스템을 구축하네 어쩌네 하면서 언론에 알리는데...
그런 인프라 확장 소식만으로 "오...역시!!"라고 사람들이 감탄을 금치
못할 만한 시대는 이미 지나버렸습니다.
외국의 경우에는 단순히 수퍼컴퓨터의 도입으로 성능을 확장하는 것을
뛰어넘어 일종의 Grid Computing 기술(큰 의미의 Clustering 이라고도 할 수 있죠)을
도입해서 Internet에 연결된 전세계 사용자들 컴퓨터의 리소스를 활용하는 방향으로
진화하고 있습니다. 단순히 성능좋은 컴퓨터를 확충하는 것 만으로는 한계가 있는
법이지요.
사실 이런 기술적인 진화 방향에 대해서 이야기 하려는 것은 아니고요...
심심해서 관련된 정보를 찾아보기 위해 Google을 검색했더니 다음과 같은
기사가 있더군요.
-----------------------------------------------------------------------------------
1998년 8월 16일 한겨레 신문에 실린 글
[미래] 게릴라 폭우 무엇으로 대적할 것인가?
날씨 예보의 발전은 컴퓨터 발전의 역사라 해도 과언이 아니다. 인류 최초의 진공관 컴퓨터인 에니악이 탄생하자 1950년 기상학자인 줄 차니와 수학자인 폰 노이만은 세계 최초로 24시간 뒤의 날씨를 예측하는 데 성공했다. 1만8천개의 진공관을 지닌 집채만한 이 기계는 286 피시에도 못미치는 수준이었다. 하지만 이 컴퓨터는 대기를 지배하는 방정식계를 계산해 강수량과 강수지점 등을 숫자로 예측하는 `수치 예보'의 길을 텄다.
선진국들은 가장 빠른 수퍼컴퓨터가 나올 때마다 먼저 날씨 예측에 써왔다. `지구 탄생이래 한번도 똑같은 기상현상은 없었다'는 말처럼 날씨는 가장 복잡한 자연현상인데다, 기상에 대한 연구는 투자 가치가 높고 연구 성과의 확실성이 보장되기 때문이다.
세계기상기구에 따르면 농업 분야에서 날씨 서비스에 1달러를 투자하면 15달러의 농업 이익이 나온다. 미국 기상청의 예보기술 정확도가 60년대 30% 수준에서 90년대 80% 수준까지 올라간 것은 수퍼컴 덕이었다.(표 참조)
하지만 우리나라 기상청이 처음 수퍼컴을 도입한 것은 시스템공학연구소가 국내 최초로 수퍼컴을 도입한 지 꼭 10년이 지난 95년이었다. 그나마 일본에서 수입한 수퍼컴 VPX220은 용량이 작고, 속도가 국내 랭킹 50위에 불과해 지금은 수퍼컴퓨터라는 이름이 무색할 정도이다.
이번 물난리를 맞아 문승의 기상청장은 “매일 사생결단을 한다”고 비장한 결의를 다졌다. 그런데도 뒷북치는 예보를 연발해 원성이 극에 달하자, 정부는 마침내 VPX220보다 80배 빠른 `진짜' 수퍼컴퓨터를 도입해 내년 여름부터 가동하겠다고 발표했다. 하지만 2년전 연천 집중호우 때도 관계장관회의를 열어 수퍼컴퓨터를 도입키로 했지만 나중에 보류되고 말았다.
정부가 뒤늦게나마 수퍼컴 도입을 결정한 것은 다행이다. 그러나 기상 전문가들은 수퍼컴퓨터만 도입한다고 `국지성 집중호우'를 예측할 수 있는 것은 아니라고 지적한다.
이번에 기상청이 골탕을 먹었던 것은 지리산·수도권·당진·속리산·상주 등 이곳저곳에서 불쑥 나타나 300㎜가 넘는 폭우를 퍼부었던 국지성 집중호우다. 이번뿐 아니라 96년의 연천, 87년의 부여 폭우처럼 국지성 집중호우는 자연재난의 주범이다. 세계 기록은 1952년 하루 1870㎜의 비를 퍼부었던 인도양 레유니온섬의 집중호우로서, 이런 최악의 폭우가 한반도를 덮치지 말라는 보장이 없다.
기상청 기상연구소 최영진 연구관은 “국지성 집중호우는 이번처럼 불과 몇시간만에 구름이 형성되는데다 크기도 20∼30㎞로 작아 현재 기상청이 컴퓨터로 기상 예보를 하는 데 쓰는 40㎞ 크기의 격자 모형으로는 예측이 사실상 불가능하다”고 말한다. 작은 고기를 큰 그물로 잡으려고 애쓰는 것과 똑같다는 것이다.
따라서 국지성 집중호우를 예측하려면 격자 크기가 10㎞ 정도인 미세격자모형을 써야한다. 또 매우 불안정한 대기의 운동을 상세하게 재현할 수 있어야 하므로 매우 복잡한 방정식이 동원된다. 기상연구소 정준석 연구사는 “미국에서 들여온 미세격자모형(ARPS)을 우리 지형에 맞게 개량해 전자통신연구소의 수퍼컴퓨터 크레이C90을 빌려 돌리고 있지만, 워낙 계산량이 많아 20시간 뒤를 예보하는데 수퍼컴 계산시간만 23시간이 걸려 무용지물이나 마찬가지”라고 말한다.
이런 문제는 수퍼컴의 도입으로 어느 정도 해소될 것 같지만, 관측 자료와 전문 인력의 부족이 가로막는다. 컴퓨터의 예측 정확도는 입력하는 관측자료의 정확도에 달려있다. 그러나 서해안의 레이더망이 뻥 뚫려있다. 또 고공 기상관측자료도 턱없이 부족한 실정이다.
우리나라는 편서풍이 강한 중위도 지역에 위치해 여름에는 남서쪽에서 몰려오는 구름과 기류의 영향을 많이 받는다. 이 때문에 2년전 연천 폭우 뒤 기상청은 현재 5개인 레이더를 7곳으로 늘려 백령도와 대흑산도 기상레이더 설치를 건의해왔지만, 이번에도 레이더 설치 확답은 받지 못한 상태이다. 기상연구소 최영진 연구관은 “서해안에 레이더가 설치되면 지금보다 10시간 정도 앞서 한반도로 동진해오는 구름과 물의 양을 입체적으로 파악할 수 있을 것”이라고 말한다.
국지성 집중호우는 이질적인 기단이 만나 기류가 불안정한 전선이나, 산악 또는 해안에서 지형적 요인으로 공기가 급상승할 때 생긴다. 상승하는 공기는 1백m에 1℃의 비율로 온도가 떨어지면서 수증기를 머금을 수 있는 능력이 떨어져 수증기가 응결돼 물이 된다. 젖은 빨래를 짜는 것과 똑같은 원리이다. 따라서 상승 기류의 포착이 집중호우 예보 정확도를 결정적으로 좌우한다. 하지만 전국에 깔려 있는 400개의 자동 기상관측망은 1.5m 높이의 바람과 빗물만 측정해 도움이 안된다. 이에 따라 기상청은 풍선을 띄워 올려 고공의 기상을 관측하는 `장마 집중감시' 프로그램을 올해 시작했지만, 필요한 예산 7억원 가운데 배정된 것은 2억원뿐이다.
더욱 중요한 문제는 국지성 집중호우나 악천후를 예측하는 가장 중요한 기상학 분야인 `미세격자모형'의 박사급 전문가가 기상청에 단 한명도 없다는 것이다. 현재 기상청에는 수치 모형을 전공한 박사가 여러명 있지만, 분야가 지구모형이나 동아시아모형이다. 그러다보니 전세계적인 관측망을 두고 선진국에서나 연구하는 큰 규모의 모형 연구에만 열을 올리고 정작 큰 피해를 내는 미세격자모형은 실용화하지 못하고 있다. 또한 기상청 예보관들은 수치 예보보다 일본 기상청이 보내온 팩스자료와 경험에 의존해 예보를 하는 데 익숙하기 때문에 `컴맹' 퇴치 노력이 함께 이루어지지 않는 한 수퍼컴 도입은 실효성을 거두기 어려울 것으로 보인다. 신동호 기자
-----------------------------------------------------------------------------------
거의 10년이 다되어 가는 저때와 지금, 달라진게 무엇입니까?
기술의 진화 문제인지, 사용자들의 의식 문제인지.... 하지만 제 생각에는 무엇보다도
"기술의 진화"를 따라오지 못하는 인력의 문제라고 생각합니다.
운영 요원들의 '능력'도 문제가 될 수 있을 것이고, 운영 요원들의 절대적인
숫자 부족이 문제가 될 수도 있을 것입니다.
문제가 어떻든 중요한 것은 잘못된 기상정보로 인한 국민들의 피해를 최소화하는
것이라고 생각합니다. 매년 반복되는 물난리, 그리고 폐허가 된 보금자리...
언제까지 지켜봐야만 합니까?