기술 분석의 역사

마지막 업데이트: 2022년 3월 18일 | 0개 댓글
  • 네이버 블로그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 트위터 공유하기
  • 카카오스토리 공유하기
하지만 이런 암흑기에도 기존에 수학적으로만 증명된 심층신경망을 실질적으로 구현할 수 있는 컴퓨터 성능과 알고리즘 개선은 여러 연구자들에 의해서 계속적으로 이루어져왔습니다. 2000년대에 이르러 힌튼교수의 Deep Belief Network를 기반으로 심층신경망(딥러닝) 기술이 실용화 가능성이 보이기 시작했습니다. (로센블래트가 옳았고 민스키가 틀렸다는 게 증명되는데 50년이 걸렸습니다.)
힌튼교수, geoffrey hinton

고고학이란 1차적으로 과거의 유물을 대상으로 하여 인간의 문화를 밝혀내는 학문이다. 그러나 여기서 말한 과거라는 것이 대부분 문헌기록이 남아있지 않은, 지금으로부터 1,500년 이상 오래된 시기를 말한다. 이에 따라 유물의 경우도 대부분 부식이나 후대의 파괴로 말미암아 당시 생활에 사용되었던 것에 비해 남아 있는 것이 극소수에 지나지 않아서 연구하는 데에 많은 어려움이 있다. 이런 상황에서 단순히 1차적 유물을 가지고 직관적인 관찰만으로 과거의 문화를 연구하면 필요한 지식을 얻지 못하게 되거나 알더라도 매우 부족하고 단편적이게 된다.

그러므로 최근에는 유물로부터 좀더 많은 정보를 얻어내기 기술 분석의 역사 위해 단순히 시각에 의한 관찰이 아니라 자연과학의 연구성과를 통해서 새로운 분석방법을 이용하기에 이르렀다. 토기의 과학적 분석도 이러한 맥락에서 이루어진 것이며 우리 나라에서는 1981년 처음으로 연구가 시작 0929) Choi Mong-Lyong,<Analysis of `Plain Coarse Pottery' from Chŏlla Province, and Implications for Ceramics Technology and so-called 'Yŏngsan River Valley Culture Area'>(≪韓國考古學報≫10·11, 1981). 된 이후 계속 그 연구성과가 축적되고 있다. 0930) 철기시대의 토기분석으로는 金暘玉,<韓半島 鐵器時代 土器의 硏究>(≪白山學報≫20, 1976)가 처음이며, 그 후 연구 동향에 대하여는 崔夢龍·申叔靜,<韓國 考古學에 있어서 土器의 科學分析에 대한 檢討>(≪韓國上古史學報≫ 1, 1988)가 있으며, 철기시대 토기에 대한 개관으로는 최몽룡·신숙정·이동영,≪고고학과 자연과학≫(서울대 출판부, 1996)이 있다. 여기에서는 이런 자연과학적 분석의 방법에 대해 현재 많이 이용되고 있는 것을 중심으로 해서 살펴보고, 특히 철기시대 전기의 분석결과를 중심으로 검토해 보겠다.

현재 행해지고 있는 토기의 과학적 분석은 크게 토기의 소성환경 파악을 통한 기술발달 과정 파악과 그를 바탕으로 한 원산지 추정으로 나눌 수 있다. 그리고 부수적으로 토기를 통해서 절대연대를 알아보는 것이 있는데, 절대 연대를 파악하는 것은 사실 토기의 과학적 분석이라기보다는 절대연대 측정법에 관련이 되며, 우리 나라에서 그 연구 예도 찾아볼 수 없는 것이기에 여기서 다루지는 않겠다. 토기의 제작 기술적인 측면에 대해서는 소성온도의 파악과 성분분석, 0931) 이것은 성분분석을 통해서 비짐(보강재)를 파악하고, 여러 토기 제작상의 기술적인 조건을 파악하는 기본단계로 중요한 의의를 가지며 산지추정을 위한 근거로도 사용된다. 그리고 기타 물리적인 성질에 대한 분석 등으로 크게 나누고 있다.

토기 소성온도 파악은 다시굽기(refiring) 0932) 이것은 하나의 관찰법에 해당한다 할 수 있지만 다른 여러 분석법들이 기본적으로 다시굽기의 원리를 이용하고 있기 때문에 이 글에서는 일단 이것을 하나의 과정으로 보겠다. 를 기본으로 하며 이를 통해 물리적 관찰을 하면서 크게 기술 분석의 역사 광물조성분석·화학분석·열분석의 방법을 통해 구운 온도를 추정한다.

‘다시굽기’란 일정한 온도로 찰흙을 굽고 식히면 그 뒤에 다시 가열해도 처음의 온도를 넘지 않는 한 상태변화가 일어나지 않는 성질을 이용해 대략적인 소성온도와 물리적 성질 등을 파악할 수 있는 방법의 하나이다.

광물조성분석에서는 석영입자의 변환형인 트리디마이트(tridymite)의 유무를 가지고 이것이 관찰되지 않을 때 870℃ 이하에서 구웠음을 알 수 있다. 또 카오린나이트(kaolinite) 광물의 고온형인 뮤라이트(mullite)가 관찰되지 않을 때 980℃ 이하에서 구웠음을 추정할 수 있다.

또한 전자선을 전기적으로나 자기적으로 방향을 집중시키거나 또는 발산시켜 광선의 구실을 하게 하여 물질의 미세구조를 관찰하는 데 이용하는 방법으로 어느 정도 경험이 있으면 소성온도 판독도 가능한 SEM(Scanning Electron Microscope)관찰법과, 유물에 X선을 조사하여 반사되는 각의 굴절유형을 통해 유물 속에 존재하는 광물질의 존재를 확인하는 방법으로서 결정구조를 가진 물질의 정확한 분류나 점토광물 분석에 좋은 XRD분석법(X-ray Diffraction Analysis) 0933) 하지만 XRD로는 결정물질만 알 수 있고, 구워진 찰흙일 때는 시료를 굽는 과정에서 결정구조가 파괴되는 경우가 있으므로 암석분석으로 보완해야 한다. 등이 있다.

화학분석으로는 Mössbauer spectroscopy와 ESR분석법이 있는데 前者는 흙속의 철 성분의 산화상태로 가마 분위기를 파악하는 것으로 900℃ 이상으로 소성된 토기에 적합하며, 後者는 찰흙이 Fe+3(常磁性 이온)을 다량 함유하고 있어 구우면 열전이에 의해서 많은 결함이 생기는데 이 때 ESR을 측정하면 스펙트럼상의 결정구조 변화가 일어나는 것을 알 수 있는 방법이다. 따라서 이 방법은 Mössbauer spectroscopy와 달리 비교적 저온의 산화염으로 구워진 토기의 소성온도 측정에 유리하다.

마지막으로 기술 분석의 역사 열분석이 있는데 이것에는 DTA(Differential Thermal Analysis), TGA(Thermal Gravity Analysis), TEA(Thermal Expansion Analysis) 등이 있다. 먼저 DTA는 대부분의 점토류는 가열하면 흡열·발열 반응을 보이는데 그런 반응의 횟수, 그것이 일어나는 온도, 강도 등이 광물에 따라 다르므로 광물확인이 가능한데 암석분석으로 확인하기 힘든 미세한 입자의 물질분석에 특히 유용하고 찰흙종류 확인과 찰흙연구에 광범위하게 이용되고 있다. 하지만 찰흙이 탈수화된 이후에는 제한된 값만 얻을 수 있다.

TGA의 경우는 일정한 조건으로 토기시료를 가열했을 때 일어나는 중량손실을 측정함으로써 이루어진다. 특히 500∼700℃ 사이에 이루어진 중량손실은 찰흙이 탈수화되었기 때문이며 수화된 찰흙이 토기에 남아있을 때 구운 온도는 500∼700℃ 사이로 추정할 수 있다. TEA는 토기시료에 열을 가했을 때 열팽창점을 지나 소결이 재개되면서 수축이 시작되는 단계가 토기 소성온도의 지표가 된다는 원리를 이용한 것으로 800℃ 이상의 온도에서 구워진 토기에 적합하다.

다음으로 산지추정에 대한 연구를 알아보자. 연구의 전제는 바탕흙의 화학성분이 다르면 원료산지가 다르고 이것은 서로 산지가 같은 원료로 만든 것과 비교해 볼 때 구성성분에 차이가 날 것이라는 점이다. 이에는 우선 태토(바탕흙)의 성분을 파악할 수 있는 분석조사가 필요하다. 이 때 분석대상이 되는 광물은 40가지 정도가 되는데 분석대상 원소를 뽑을 때에는 같은 무리에서 변화가 적고 다른 무리들과는 변화가 큰 특징을 가지며 전체량을 측정하기에 충분한 만큼이 들어있어야 하며 서로 상관관계를 가지는 원소가 아니어야 한다. 주의할 점은 유적의 퇴적환경도 고려해야 하고 특히 낮은 온도에서 구어진 토기의 경우 토기 안의 화학성분이 빠져나가거나 밖에서 침투하는 경우가 있어 시료를 채취할 때 철이나 텅스텐 용기를 사용하여 오염이 되지 않도록 하여야 한다.

분석방법으로는 우선 암석분석이 있는데 이것은 편광 현미경에 의하여 토기의 단면을 조사하고 광물의 입자나 구조를 분석한다. 화학분석은 광물들의 성분분석에 특히 용이한 것으로 XRD, XRF, AA, ESA, NAA, IRA, ESR, Mössbauer spectroscopy가 있다.

최근 경기도 일산이나 미사리유적의 토기분석의 결과 지질분석의 중요성도 강조되어야 한다. 미사리토기의 경우 바탕흙이 주로 녹니석이며 이들은 5∼7㎞ 이내의 팔당지역에서 가져온 것으로 파악되었으며, 또 일산토기 역시 주변흙을 이용하여 만들어진 것으로 밝혀지고 있다. 0934) 최몽룡·신숙정·이동영, 앞의 책, 334·402쪽. 이런 과정을 통하여 얻어진 결과를 통해 제작장소를 밝히기 위한 연구가 뒤따라야 한다. 여기에는 연구지역의 전반적 지질조건을 파악하고 민족지적 자료를 광범위하게 조사한 후, 토기제작의 사회경제적 의미까지 포괄할 수 있는 연구가 필요하다. 하지만 이런 연구는 우선 태토의 광물조성이 복잡하며, 앞서 말한 토기 성분분석에 어려움이 많다는 점과, 토기 제작과정이 여러 단계를 거치는 상당히 복잡한 과정이라는 것, 그리고 원료성분이 사용과정에서 또는 퇴적과정에서 달라질 가능성이 높다는 점 등으로 많은 어려움이 따르고 있다.

앞서 토기분석 방법을 기술 발달과정의 파악과 산지추정으로 나누어서 설명하였는데 여기서는 구체적으로 우리 나라에서 토기분석이 적용된 예를 알아보겠다.

기술발달 과정 파악의 경우 무문토기에서는 대부분 석영의 고온형인 트리디마이트가 발견되지 않는 것으로 보아 870℃ 이하에서 구워졌음을 알 수 있다. 또 여러 가지 보강재의 성분을 파악할 수 있었는데 특기할 만한 것으로 영암 내동리 고분 옹관을 조사한 0935) 양삼열·조영배,<옹관의 소성온도 및 물성조사>(≪靈岩 內洞里 草墳골 古墳≫(國立光州博物館, 1986), 125∼132쪽. 결과, 700℃부터 수축현상이 보이는 것으로 보아 대체적으로 구운 온도의 범위는 700℃ 부근이라 생각되고 이는 XRD의 분석 결과와도 일치한다. 그러나 XRD에서 턱부분에 絹雲母(sericite peak)가 보이지 않는 것으로 보아 800℃까지 온도가 올라갔었음을 알 수 있다. 이것은 같은 가마 안에서도 같은 개체의 소성온도가 다를 수 있음을 보여준 것이라 하겠다.

광물조성을 확인하는 데는 암석분석 방법이 가장 많이 사용되었는데 일반적으로 각 토기의 주성분과 미세성분을 가리는 연구결과가 조금씩 축적되고 있다. 하지만 이 분야에서 가장 중요한 것은 토기의 바탕흙에 섞여 있는 광물이 원래 태토에 포함된 것인지, 아니면 비짐으로 사용하려고 제작자가 일부러 섞은 것인지를 가려내는 일이다. 따라서 이것은 토기가 출토되는 지역에 대한 지질과 암석에 대한 전문적인 조사가 필요하며, 실험고고학적으로 그 지역에서 태토가 될 만한 흙들을 가지고 직접 구워서 파악하는 작업이 필요하다. 하지만 이 분야는 아직 구체적으로 이루어지지 못하고 있다.

그리고 화학적 조성을 밝히는 연구가 있는데 실제적으로 기술 분석의 역사 노포동·저포리 등의 토광묘 출토 연질토기의 경우, 黑皮는 着炭에 의한 것이고 안료나 흑색 장피(덧칠;slip)와는 구분되는 것임을 밝혀낸 바 있다. 0936) 李盛周,<三國時代前期土器의 硏究>(≪韓國上古史學報≫ 1, 1988). 또 철(Fe) 환원도와 유기물 함량비를 연구하여 연질토기와 경질토기는 가마에서 구웠을 것으로 추정하였고, 0937) 李盛周, 위의 글. 내동리에서는 기와굴에 단가마 평요로 가마의 성질을 추정하였다. 0938) 崔夢龍·姜炯台,<渼沙里出土 土器의 科學的 分析>(≪龍巖車文燮敎授華甲紀念 史學論叢≫, 新書苑, 1989). 그리고 삼국시대 토기의 일반적인 구분인 적색·연질·경질 토기의 구분이 일반적으로 타당함을 규산염광물 완전분석법과 AA(Atomic Absorption) 분석법을 통해 알아냈다. 한편 적색토기는 종래의 무문토기와 비교해 태토의 질이 향상되었다고 하기는 어렵고 연질토기는 상당히 발전된 태토를 가졌으며 경질토기는 열에 대해 상당히 안정되어 있다는 사실도 밝혀졌다. 0939) 崔夢龍·李榮文·鄭昌柱·姜景仁,<全南 昇州·麗川地域 無文土器의 科學的 分析>(≪韓國上古史學報≫14, 1993).

마지막으로 토기를 구워내는 온도문제인데 현재 민무늬토기의 온도는 573℃ 이하라는 추정을 시작으로 빗살무늬토기 700℃ 이상, 민무늬토기 870℃ 이하, 붉은간토기 700∼750℃, 연질토기 800℃정도, 경질토기 1,000∼1,200℃ 정도로 추정되고 있다. 이런 것으로 보았을 때 대체로 이른 시기의 토기는 낮은 온도에서 구워지고 시기가 떨어질수록 높은 온도에서 구웠다는 일반적인 이야기를 입증해 주고 있다. 이 분야의 연구에서는 추정하는 데 변수 0940) 예를 들어 찰흙이나 비짐의 종류, 가마의 구조, 가마 분위기, 땔감, 불때는 시간 등이 모두 변수가 될 수 있으며 심지어 하나의 개체가 서로 다른 온도로 구워지는 것도 흔히 볼 수 있는 일이다. 가 많기 때문에 확실히 말하기는 어려운 점이 많지만, 대체적으로 암석분석과 물리적 성질 파악과 더불어 XRD·ESR 분광분석과 열분석 등을 통해 거의 규명이 되고 있다.

산지추정의 경우는 중요한 연구 분야임에도 불구하고 앞서 말한 인근지역의 지질학적 연구 등 공반연구가 되고 있지 않는 한계가 있어 주로 성분분석을 통한 통계적 처리로서 산지추정을 하고 있다. 0941) 姜炯台,<중성자 방사화분석에 의한 한국 고대토기 및 자기연구>(한양대 석사학위논문, 1985).
―――,<新羅·伽耶土器 産地推定 硏究>(≪제12회 한국고고학전국대회 발표요지≫, 1988), 15∼31쪽.
姜炯台·李盛周,<古代遺物의 産地硏究>(≪제2회 한국상고사학회 발표요지≫, 1988), 133∼155쪽. 하지만 산지추정과 관련되는 분배·교역 등에 대한 연구는 아직 이루어지지 않고 있는 실정이다.

이상으로 지금까지 우리 나라에서 진행된 철기시대 토기의 과학적 분석 성과를 정리해 보았다. 철기시대의 경우 1980년대부터 논쟁이 되고 있는 소위 ‘와질토기’에 대한 정체를 규명하기 위해서 다른 시대보다 과학적 분석방법이 더 많이 요구됨에도 불구하고 아직까지는 많은 연구가 이루어지지 않고 있다.

자연과학적인 방법을 통한 토기의 분석은, 제한적인 자료를 통해서 과거문화를 설명하는 것이 고고학의 주된 목표라는 점에서 매우 중요한 고고학적 접근 방법이라 하겠다. 이를 시행하려면 고고학자는 자신의 연구를 진행시키기 위해서 과학적 방법에 대한 기초지식을 가지고 있어야만 할 것이며, 자연과학자들과의 협동연구도 적극적으로 고려하여야 되겠다. 현재까지 자연과학적인 분석은 대부분 유물의 상태만을 말해주는 1차적인 정보를 얻는 데에 그치고 있다. 하지만 이 방면에 대한 계속적인 연구의 증가와 함께 연구자들은 이제까지의 연구에서 진일보하여 현재까지 얻어진 자료를 기반으로 궁극적 목표인 산지추정과, 나아가 문화해석에까지 시야를 확대시킬 필요가 있을 것이다.

인공지능은 어떻게 발달해왔는가, 인공지능의 역사

1950년 영국수학자 앨런 튜링은 ‘계산 기계와 지능(Computing Machinery and Intelligence)’라는 논문에서 기계가 생각할 수 있는지 테스트하는 방법, 지능적 기계의 개발 가능성, 학습하는 기계 등에 대해 기술하였습니다. 이 기술을 현실화한 튜링머신은 존 폰 노이만 교수에게 직/간접적인 영향을 주어 현대 컴퓨터 구조의 표준이 되었으며. 세간에서는 이것을 인공지능 역사의 시작으로 보고 있습니다.

앨런튜링

앨런튜링

한편 미국의 신경외과의 워렌 맥컬록(Warren Mc Cullonch)과 논리학자 월터피츠(Walter Pitts)가 전기 스위치처럼 온, 오프 하는 기초기능의 인공신경을 그물망 형태로 연결하면 사람의 뇌에서 동작하는 아주 간단한 기능을 흉내 낼 수 있다는 것을 이론적으로 증명하였습니다. 또한 헵은 생물학적 신경망 내에서 반복적인 시그널이 발생할 때 신경세포들은 그 시그널을 기억하는 일종의 학습효과가 있음을 증명하였습니다.
이러한 연구들은1958년 코넬대 심리학자 프랭크 로센블래트의 연구에 결정적 영향을 주게 되었고, 이 연구에서 퍼셉트론(Perceptron: 뇌 신경을 모사한 인공 신경 뉴런) 탄생하게 됩니다. 이로써 신경망 기반 인공지능 연구의 부흥기에 접어 들게 되었습니다.
하지만1969년 마빈 민스키와 세이무어 페퍼트는 저서를 통해 퍼셉트론은 AND 또는 OR 같은 선형 분리가 가능한 문제는 가능하지만, XOR문제에는 적용할 수 없다는 것을 수학적 증명으로 발표했습니다. 이에 따라 미국방부 DARPA는 AI 연구자금을 2천만달러를 전격 중단하기에 이르렀습니다.
또한 영국의 라이트힐 경의 영국의회에 “폭발적인 조합증가(Combinational explosion)를 인공지능이 다룰(Intractability)수 없다” 라고 보고함으로써, 사실상 인공지능에 대한 대규모 연구는 중단되어 다시 한번 암흑기에 접어들게 됩니다.

피셔/피어슨

1970년대 이후 대부분 기업은 R&D의 방향을 실용적인 통계기술에 집중하게 됩니다. 현대통계학은 1900년대 피셔/피어슨을 선두로 시작하여, 영국의 조지 박스, 일본의 다꾸치 같은 기술 분석의 역사 학자들의 노력으로 발전하게 됩니다. 이들은 실험계획법 및 통계 분석기술로 제조 품질/생산효율 향상에 영향을 줄 수 있음을 보였습니다.
이 개념은 데이터마이닝이라는 이름으로 산업에 비효율성을 해결하는 도구로 현재까지 사용되어왔고 빅데이터 기술의 근간이 되어 자리 잡게 되었습니다.

한동안 잠잠했던 인공지능 연구는 1980년대 산업계에 전문가 시스템이 도입되며 본격적으로 확산하게 됩니다. 전문가 시스템은 1)지식과 경험의 데이터베이스화 2) 의사결정 추론엔진 3) 사용자 인터페이스로 구성되어있는데, 이 당시 추론엔진 기술은 베이즈(Bayes)기반 확률적 방법과, 또 다른 접근법으로 0과 1 사이에도 여러 가지 값을 가질 수 있는 퍼지(Fuzzy)이론을 통해 다중 값 논리방법을 이용하는 방법이 주로 활용되었습니다.
퍼지전문가 시스템은 1975년에 영국의 런던대학 에브라힘 맘다니 교수가 증기기관 제어 적용에 성공하여, 이때 적용된 맘다니 기법을 위시하여 퍼지 전문가 시스템이 한동안 인공지능을 대표하는 기술로 자리 잡게 되었습니다.
당시 미국의 500대 기업 절반이상이 전문가시스템을 사용했고 지속적인 투자를 한동안 받았습니다. 하지만 방대한 관리방안과 투자대비 효용성의 한계가 노출되어 인공지능의 연구는 약해지고, 1993년 미국부터 대부분 연구방향은 슈퍼컴퓨터와 시뮬레이션 분야로 연구방향을 전환하게 됩니다.
하지만 이런 인공지능의 암흑기에서도 리처드 밸벨만 등이 주창한 기계제어를 위한 강화학습(Reinforcement Learning), 조지 박스와 일본의 품질 연구가들이 주창한 실험계획법 및 통계적 공정(품질) 기법들이 산업 분야에 활용되어왔습니다. 반면 딥러닝의 기초모델인 역전파 등의 획기적인 AI 연구들이 발표는 되었지만, 컴퓨터 성능 및 제한적인 활용, 머신러닝 알고리즘으로 대체되는 등 여러 제한으로 인하여 세상에 주목 받지 못하고 사장되어 갔습니다. (역전파 관련 연구는 훨씬 전에도 발표됨이 나중에 확인되었습니다.)

심층신경망 기술 인간의 뇌(인지능력)를 모방하다, 딥러닝

힌튼교수

하지만 이런 암흑기에도 기존에 수학적으로만 증명된 심층신경망을 실질적으로 구현할 수 있는 컴퓨터 성능과 알고리즘 개선은 여러 연구자들에 의해서 계속적으로 이루어져왔습니다. 2000년대에 이르러 힌튼교수의 Deep Belief Network를 기반으로 심층신경망(딥러닝) 기술이 실용화 가능성이 보이기 시작했습니다. (로센블래트가 옳았고 민스키가 틀렸다는 게 증명되는데 50년이 걸렸습니다.)
힌튼교수, geoffrey hinton

특히 Deep-CNN(Convolution Neural Network: 합성곱신경망, 이미지 인식/분류 특화모델)은 이미지 인식 성능 평가에서 2011년에는 26%인식 오류율을 보였으나, 2015년4년만에 3.5%로 개선하는 괄목할 성과를 보였습니다. 이를 기점으로 전문가들 사이에서 신경망 기반 인공지능(딥러닝) 기술이 재조명되게 됩니다.
일례로 이렇게 딥러닝의 가능성이 증명되자 2014년 구글은 딥마인드 테크놀로지 사(DeepMind Technologies: 영국 런던에서 설립되었으며 강화학습 특화된 회사)를 4억달러에 인수했습니다.
그 이후 ‘16년 알파고1.0 (16만 기보 지도학습기반 심층강화학습과 확률적 샘플링기반 의사결정)이 이세돌을 이기고. ‘17년 2.0(비지도학습 소량데이터 기반 자가학습)으로 커제 및 탑클라스 바둑기사들에게 승리하면서, 인공지능(AI)기술이 일반인들에게도 확실히 인식되고, 완전히 재조명되는 계기가 되었습니다.
현재까지 실증화된 인공지능(AI)기술은 CNN, RNN(Recurrent Neural Network : 음성과 문자분야에 강한 신경망)입니다. 최근에는 ‘17년 이안 굿펠로우의 GAN(Generative Adversarial Nets: Image를 만들어내는 모델과 다양한 모델간에 서로 대립(Adversarial)하며 성능 개선하는 학습개념(낮은 수준의 사람처럼 글쓰기,노래하기 등이 가능)이 현재 인공지능(AI)를 이끌고 있습니다. 또한 실용성이 없어 보이던 추론(Reasoning) 연구 또한 조금씩 성과를 보이고 있으며, 이형의 정보학습을 새로운 문제를 효율적으로 해결하는 전이학습(transfer learning) 연구 역시 급속히 진행되고 있습니다. 이처럼 딥러닝의 등장 이후 인공지능은(AI) 빠른 발전을 보이고 있습니다만 2018년 어떤 기술이 화두가 될지 전혀 예측할 수가 없을 정도로 급격하게 변화하고 있습니다.

현 인공지능의 강자들, 결국 데이터 싸움

알파고 대 사람 바둑 게임

B2C산업의 인공지능 적용 사례를 살펴보도록 하겠습니다.
우선 구글과 페이스북은 딥러닝을 활용한 얼굴 인식 기술에서 99.96%와 97.25%의 정확도를 확보 하였고, 아마존은 2014년 인공지능을 활용하여 로그인 시 물류창고에서 배송절차를 시작하는 결제예측배송 특허를 등록했습니다.
또한 영국 유니버시티 칼리지런던(UCL), 셰필드대, 미국 펜실베니아주립대의 공동 연구의 결과물로 만들어진 인공지능 판사는 79% 정확도로 재판의 결과를 예측 하였으며, IBM AI 로스는 파산관리변호사로 공식선임 되기도 하였습니다.
그리고 미국종양학회의 IBM왓슨의 대장암/직장암 진단 정확도는 이미 90%가 넘는 수준이며, 테슬라의 AutoPilot은 인간 개입을 배제한 자율주행이 가능한 수준에 이르렀습니다.

한편으로 B2B산업에서 인공지능 적용을 살펴 보면, GE사의 Brilliant Factory의 Predix는 다양한 기계학습, 딥러닝 기반 데이터분석기술로 가동중지를 예방하는 의사결정을 내리고, 최적의 생산을 유지하고 있습니다. 또한 지멘스(Siemens)의 스마트팩토리는 매일 5,000만건으로 제조공정의 75%를 자동으로 작업을 지시하며, 인력의 개입을 최소화 시키고 있습니다.
여기서 주목할 만한 점은 현재 인공지능 강자들은 각자 도메인특성과 빅데이터 기반을 중심으로 인공지능(AI) 분야의 우위를 선점하고 있다는 점을 주목해야 합니다. 이런 관점에서 바라본다면 삼성은 전자(가전, 반도체, 무선), 중공업, 증권, 호텔, 바이오로직스 등이 대규모의 데이터를 보유하고 있으며, 특히 전자중심의 제조데이터는 거의 독보적인 수준입니다. 독보적인 제조 데이터에 인공지능이 접목된다면 혁신적인 생산성 향상을 가져 올 수 있을 것이라 생각되며, 현재도 요구되고 있습니다.
이러한 점을 인지한 글로벌 선진국가에서는 국가 단위의 리쇼어링 정책을 발표하고 제조업의 중흥을 위한Industry 4.0, 4차 산업혁명 등을 내세우고 있습니다. 또한 제조가 주력 사업 분야가 아닌 IBM 왓슨도 스마트팩토리에 분야에 뛰어들고 있는 점을 잘 살펴볼 필요가 있습니다.
결국 데이터 싸움인 인공지능(AI)시대에서 제조업이 강한 대한민국의 유리한 전쟁터는 “AI Technology in Smart Factory” 라고 생각해보는 것도 어떨까 합니다.
그럼 다음 호에서는 스마트팩토리에 적용된 인공지능(AI)활용에 대해 살펴보고 실제 인공지능(AI) 기술적용의 현실적인 기술 분석의 역사 어려움에 대해 공유 드리도록 하겠습니다.

▶   해당 콘텐츠는 저작권법에 의하여 보호받는 저작물로 기고자에게 저작권이 있습니다.
▶   해당 콘텐츠는 사전 동의없이 2차 가공 및 영리적인 이용을 금하고 있습니다.

기술 분석의 역사

한국이 체계적이고 전략적인 연구개발 투자를 통해 혁신 추종자에서 혁신 리더로 어떻게 발전했는지 확인하실 수 있습니다.

2015년부터 2019년까지의 연구 개발에 대한 평균 총 지출(GERD)은 국내 총생산(GDP)의 4.3%이고 같은 기간 동안 투자의 연평균 성장률(CAGR)은 2.7%으로 나타났습니다. 한국연구재단(NRF)과 엘스비어의 공동 보고서에 따르면, 한국의 R&D 투자수준은 비교 대상 5개국(중국, 일본, 독일, 미국, 영국) 중 가장 높고 가장 빠르게 증가하고 있습니다.

BK21 사업 등의 영향으로 한국의 연구 출판물은 지속적으로 성장하고 있으며, BK21 4단계 사업에 연구의 질을 평가하는 정성지표인 FWCI를 도입하면서 대학들의 인용영향력도 높아지고 있고, 나아가 한국의 연구 영향력도 지속적으로 성장하고 있음을 확인할 수 있습니다.

이 보고서는 학술 출판물 양과 영향력 외에도 한국의 특허 환경 분석을 포함하여 혁신과 지식 이전도 분석하고 있습니다. 한국의 특허 포트폴리오는 한국 기업의 세계화에 따른 혁신 능력을 설명하고, 5개 국가 중 한국은 특허 규모와 특허의 경쟁 영향력이 모두 증가한 유일한 국가로 확인됩니다. 특히, 한국의 원천기술은 현재 반도체 기술과 정보통신 분야에 집중되어 있으며, 기업은 반도체와 전략, 대학 및 정부출연연구소는 제약 및 재료분석 분야에서 경쟁력이 높습니다.

한국의 대학과 기업이 연구 및 혁신을 강화하고, 성공적인 결과를 내기 시작하면서 한국과 협력할 기회를 탐색하려는 전세계적인 관심이 증가함과 동시에, 한국은 글로벌 연구 및 혁신강국으로 자리매김하고 있습니다.

인류의 수천 년 역사 속에서 위대한 왕과 장군들은 모두 효율적인 통신 수단에 의존해 나라를 다스리고 군대를 움직여 왔다 해도 과언이 아니다. 하지만 동시에 지도자들은 이러한 통신 내용이 적의 손에 들어가 귀중한 비밀이 누설되거나 중요한 정보가 들어가지 않을까 늘 우려했다. 그런 의미에서 적이 중요한 정보를 가로챌 수 있다는 위협이야말로 암호를 발시킨 원동력이었다고 할 수 있다. 이렇듯 비밀 보장이 절실히 필요해짐에 따라 각국 정부는 가능한 한 가장 안전한 암호를 만들어 내고, 이를 이용해 통신의 보안성을 확보하는 부서를 운영하게 된다.

이에 맞서 적국에서는 거기에 담긴 비밀을 빼내려는 암호 해독가를 동시에 양성했다. 암호 해독가들은 언어를 재료로 이용하는 연금술사로, 무작위로 모아놓은 듯한 부호에서 의미를 가진 단어를 뽑아내기 위해 일생을 바치는 신비하고도 특별한 분야의 사람들이다. 암호의 역사는 바로 암호를 만드는 사람들과 이를 해독하려는 사람들이 수백 년에 걸쳐 벌여온 전쟁의 역사이다. 지성을 무기로 한 이 군비 경쟁은 때로는 역사에 극적인 영향을 미치며 그 경로를 바꿔놓기도 했다.

암호의 어원은 그리스어의 비밀이란 뜻을 가진 크립토스(Kryptos)로 알려져 있다. 이는 평문을 해독 불가능한 형태로 변형하거나 암호화된 통신문을 원래의 해독 가능한 상태로 변환하기 위한 모든 수학적인 원리, 수단, 방법 등을 취급하는 기술이나 과학을 말한다. 즉, 암호란 중요한 정보를 다른 사람들이 보지 못하도록 하는 방법을 의미한다.

암호 기술의 발전 역사를 구분할 때 흔히 두 번의 큰 전환점을 기준으로 고대 암호, 근대 암호, 현대 암호 등의 세 단계로 나눠진다. 첫 번째 전환점은 1920년대, 1, 2차 세계 대전에서 무선 통신 기술의 발전을 기반으로 여러 가지 기계적, 전자적 암호 장치를 개발하고 사용한 것이었고, 두 번째 전환점은 1970년대 들어 컴퓨터 사용이 활발해지면서 컴퓨터를 이용한 암호 기술이 발전한 것이다.

이러한 전환점을 기준으로 고대로부터 1, 2차 세계 대전 이전가지 사용된 초보적인 암호 기술들을 고대 암호라고 하면, 1970년대까지 복잡한 기계 장치와 전자 장치들을 이용한 암호 기술을 근대 암호, 컴퓨터가 개발된 이후 컴퓨터를 이용하는 암호 기술을 현대 암호라고 부른다.

고대 암호

고대 봉건 사회에서는 황제나 군주가 지방 관리에게 보내는 비밀문서, 전쟁 중의 작전 지시와 보고, 첩자들과의 통신 등 전쟁이나 첩보 시에 정보를 전달해야 하는 경우에 다양한 비밀 통신 기법들이 사용되었다. 예를 들어, 멀리 기밀 정보를 전달해야 하는 경우에는 사자의 머리를 깎고 메시지를 쓴 후 머리를 길러서 보내면 받는 측에서는 사자의 머리를 깎고 메시지를 읽도록 하였다.

또 종이에 쓴 메시지가 그냥 보이지 않지만 불빛에 약품 처리를 하면 메시지가 나타나도록 하는 방법, 비밀 노출을 방지하기 위해 말로 전달하도록 하는 방법 등이 다양하게 사용되었다. 이러한 비밀 통신 방법을 스테가노그래피(Steganography)라고 하는데 적들도 이 통신 방식을 알고 있으면 비밀을 유지하기 어렵다는 한계를 갖고 있다.

스키테일 암호

기원전 400년경 고대 그리스의 군사들은 스키테일 암호라고 불리는 전치 암호(Transposition cipher, 문자의 위치를 서로 바꾸는 암호)를 사용한 기록이 있다. 특정 지름을 갖는 막대에 종이를 감고 평문을 횡으로 쓴 다음 종이를 풀면 평문의 각 문자는 재배치되어 정보를 인식할 수 없게 되는데, 암호문 수신자가 송신자가 사용한 막대와 지름이 같은 막대에 종이를 감고 횡으로 읽으면 평문을 읽을 수 있다. 여기서 막대의 지름은 송신자와 수신자 사이에 공유된 비밀키가 된다.

시저(Caesar) 암호

로마의 황제였던 줄리어스 시저(Julius Caesar)는 시저 암호라고 불리는 환자 암호(substitution cipher, 문자를 다른 문자로 치환하는 암호)를 사용하였다. 시저는 가족과 비밀 통신을 할 때 각 알파벳순으로 세자씩 뒤로 물려 읽는 방법으로 글을 작성했다. 즉 A는 D로, B는 E로 바꿔 읽는 방식이었다. 수신자가 암호문을 복호화하려면 암호문 문자를 좌측으로 3문자씩 당겨서 읽으면 원래의 평문을 얻을 수 있다. 송신자와 수신자는 몇 문자씩 이동할지를 비밀키로 하여 바꿔가면서 사용할 수 있다.

시저는 브루투스에게 암살당하기 전 가족들로부터 다음과 같은 긴급 통신문을 받았다. 시저가 받은 편지에는 ‘EH FDUHIXO IRU DVVDVVLQDWRU’라 되어 있었다. 3글자씩 당겨서 읽어보면 뜻은 ‘BE CAREFUL FOR ASSASSINATOR’, 즉 ‘암살자를 주의하라’는 것이었다. 당시 시저의 권세를 시기했던 일당은 시저를 살해할 암살 음호를 꾸미고 있었으며 시저 자신도 이를 어느 정도 눈치 채고 있었다. 하지만 시저는 구체적으로 암살자가 누구인지 알 수 없었다. 결국 암호문을 전달받은 당일 시저는 원로원에서 기술 분석의 역사 전혀 생각지도 못했던 브루투스에게 암살당하면서 “브루투스, 너마저…….”라는 말을 남겼다.

악보 암호

악보 암호는 전설적인 스파이 마타하리(본명은 마그레타 G. 젤러, Margaretha Geertruida Zelle)가 사용했던 방식이다. 마타하리는 일명 ‘첩보원 H21’이란 이름으로 프랑스 장교에 접근해 군사 기밀 정보를 독일에 빼돌렸는데, 이때 비밀 통신에 사용된 암호가 악보였다. 일정한 형태의 음표에 알파벳 하나씩을 대응시킨 형태로 얼핏 보기에 평범한 악보처럼 보이지만, 실제로 연주하면 전혀 ‘음악’이 되지 않는다. 마타하리의 첩보 활동은 20여만 명에 달하는 프랑스군을 죽음으로 몰고 갔다. 그녀는 제 1차 세계 대전이 끝나기 1년 전 프랑스 정보부에 체포돼 사형 당했다.

근대 암호

C.Shannon(1916~2001)/에니그마 암호

17세기 근대 수학의 발전과 함께 암호 기술도 발전하기 시작했는데, 프랑스 외교관이었던 Vigenere가 고안한 키워드를 이용한 복수 시저 암호형 방식, Playfair가 만든 2문자 조합 암호 등 다양한 암호 방식으로 발전하였다.

20세기 들어서는 통신 기술의 발전과 기계식 계산기에 대한 연구를 바탕으로 두 차례의 세계 대전을 통해 암호 설계와 해독에 대한 필요성이 높아지면서 암호에 대한 연구가 더욱 활발하게 진행되었다. 근대 암호의 이론적 기초가 된 논문은 1920년 Freidman이 발표한 ‘일치 반복률과 암호 응용’과 1949년 Shannon이 발표한 ‘비밀 시스템의 통신 이론’을 들 수 있다. Shannon은 논문에서 일회성 암호 체계가 안전함을 증명했고, 암호 체계 설계의 두 가지 기본 원칙인 ‘혼돈과 확신 이론’을 제시하였다. 암호 체계를 설계함에 있어 ‘혼돈(Confusion)’은 평문과 암호문 사이의 상관관계를 숨기는 반면, ‘확산(Diffusion)’은 평문의 통계적 성격을 암호문 전반에 확산시켜 숨기는 역할을 한다. 혼돈과 확산이라는 두 가지 개념은 오늘날의 암호 체계 설계에도 여전히 적용되고 있다.

Freidman은 2차 세계 대전 중 독일군이 사용하던 에니그마(Enigma) 암호와 일본군이 사용하던 무라사끼 암호를 해독한 사람으로 유명하다. 에니그마 암호는 각기 다른 몇 개의 암호판을 전기적으로 연결하여 원문을 입력하면 전기적 연결에 의해 새로운 암호문을 출력하는 방식으로 이 기계가 존재하지 않으면 암호를 풀 수 없다.

미드웨이 해전에서의 암호 전쟁

태평양 전쟁 당시 일본의 진주만 공습으로 큰 피해를 입고 전력이 약화됐던 미국은 일본의 그 다음 공격 목표가 어디인지를 알아내야 했다. 1942년 4월, 하와이 주둔 미국 해군 정보부의 암호 해독반 블랙 챔버는 일본군의 무전이 증가하고 있음을 발견했다. 이미 일본 해군의 암호 체계인 JN-25를 해독하고 있던 해독반은 AF라는 문자가 자주 나타난다는 사실에 주목했다. AH는 진주만을 뜻하는 것이었다. 암호 해독반의 지휘관이었던 조셉 로슈포르 중령은 AF를 미드웨이 섬이라고 생각했다. 일본의 정찰기가 ‘AF 근처를 지나고 있다’는 내용의 무선 보고를 해독한 적이 있었던 그는 정찰기의 비행경로를 추정해본 결과 AF가 미드웨이 섬일 것이라는 심증을 갖게 된 것이다.

로슈포르 중령은 체스터 니미츠 제독에게 일본군의 침공이 임박했다는 것과 AF가 자주 언급된다는 점, 그리고 AF가 미드웨이 섬일 것이라는 보고를 한 후, 미드웨이 섬의 담수 시설이 고장 났다는 내용의 가짜 전문을 하와이로 평문 송신하게 하자고 건의했다. 3월에 미드웨이 섬 근처에 일본 해군의 비행정이 정찰 왔던 것을 알고 있던 니미츠 제독은 이 건의를 받아들였다. 사실 미드웨이 섬의 정수 시설은 아무런 문제가 없었다. 이틀 후, 도청된 일본군 암호 중 ‘AF에 물 부족’이라는 내용이 해독되었다. 이로써 일본군의 다음 공격 목표가 미드웨이 섬이라는 것이 분명해진 것이다.

미군은 암호 해독을 통해 일본의 공격 목표가 미드웨이라는 사실을 알아낸 후 전투에 대비하고 반격을 준비하여 일본의 태평양 함대를 격파하고 전쟁을 승리로 이끌 수 있었다.

현대 암호

현대 암호는 1970년대 후반 스탠퍼드 대학과 MIT 대학에서 시작되었다. 1976년 스탠퍼드 대학의 Diffie와 Hellman은 ‘암호의 새로운 방향(New Directions in Cryptography)’이라는 논문에서 처음으로 공개키 암호의 개념을 발표하였다. 종래의 관용 암호 방식 또는 대칭키 암호 방식에서는 암호화키와 복호화키가 동일한 비밀키를 사용하기 때문에 송신자와 수신자는 비밀 통신을 하기 전에 비밀키를 공유하고 있어야 한다. 반면 공개키 암호 방식에서는 하나의 쌍이 되는 공개키와 비밀키를 생성하여 암호화에 사용되는 공개키는 공개하고, 복호화에 사용되는 비밀키는 사용자가 안전하게 보관하도록 한다. 공개키 암호 방식에서는 송신자와 수신자가 사전에 키를 공유할 필요가 없기 때문에 불특정 다수 사용자 간에 사전 준비가 없이도 암호 통신망을 구축하는데 유용하게 사용할 수 있다.

이어 1978년 MIT 대학의 Rivest, Shamir, Adleman은 소인수 분해 문제에 기반을 둔 RSA 공개키 암호를 개발했는데, 이것은 오늘까지도 가장 널리 사용되는 공개키 암호 방식이다. 공개키 암호의 도입은 현대 암호의 발전에 중요한 계기가 되었다.

한편, 1977년 미국 상무성 표준국(NBS, 현 NIST)은 전자계산기 데이터 보호를 위한 암호 알고리즘을 공개 모집하여, IBM 사가 제안한 DES (Data Encryption Standard)를 표준 암호 알고리즘으로 채택했다. DES의 표준화를 계기로 하여 금융 시스템을 중심으로 상업용 암호화의 이용이 증가하게 되었고 컴퓨터 통신망을 이용한 문서 전송, 전자 자금 이체 등이 활성화되었으며 암호 방식이 일반인들에게 알려지고 널리 사용되는 계기가 되었다.

이전의 암호 방식에서는 사용하는 키뿐만 아니라 암호 알고리즘도 비밀로 하여 암호문의 비밀을 지키려고 하는 경우도 있었으나, 현대 암호에서는 암호 알고리즘을 공개하도록 하고 있다. 1883년 Auguste Kerckhoff는 암호 시스템의 안전성에 대해 ‘키 이외에 암호 시스템의 모든 것이 공개되어도 안전해야 한다’고 했는데 이것을 Kerckhoff’s principle이라고 한다. 이렇게 함으로써 암호 방식의 안전성을 공개적으로 검토하게 하여 안전성을 확인하는 것이다.

표준화된 암호와 표준화된 컴퓨팅 기기들을 사용하는 현대 암호에서는 암호 알고리즘을 감추기가 매우 어렵다. 또한 암호 알고리즘을 감춘다고 해서 암호의 보안성이 높아지는 것도 아니다. 비밀로 다루어진 암호 알고리즘이 일단 공개되고 나면 그 안전성에 문제가 발견되는 사례가 많다. 그러므로 암호 분야에서는 어떤 암호 알고리즘이 많은 암호 학자들에 의해 장기간 세부적으로 수행된 분석에서도 잘 견디어 낼 때까지는 그 알고리즘을 안전하다고 인정하지 않는다. 즉, 암호 체계는 ‘무죄가 증명될 때까지는 유죄’이다.

차세대 암호

양자 기반 알고리즘인 Shor알고리즘은 인수분해 문제의 해결 속도를 감소시켜 RSA, ECC 등 인수분해 및 이산대수 기반의 공개키 암호 알고리즘을 더 이상 사용할 수 없게 한다.
또한, Grover알고리즘은 정렬되지 기술 분석의 역사 않은 데이터베이스의 원소를 검색하는 속도를 향상시켜 대칭키 암호는 키 사이즈를 2배, 해시 함수의 출력길이를 3배 증가시켜야 기존의 안전성을 가질수 있게 된다.

알고리즘 종류
알고리즘 특징 암호 영향
Shor 인수분해 문제 해결 속도 감소 공개키 더이상 안전하지 않음
Grover 정렬되지 않은 데이터베이스의 원소를
검색하는 속도 향상
대칭키 키 사이즈 증가 필요
해시 암호 알고리즘의 출력 길이 증가 필요

이러한 환경의 변화같이 특정 상황에서 기존 현대 암호기술(RSA, ECC 등)이 해결하지 못하는 경우를 대비하여, 새로운 암호기술들에 대한 연구가 활발히 진행되고 있다.
양자컴퓨팅 환경에서도 안전하게 사용할 수 있는 공개키 암호 기술인 양자내성암호와 더불어, 동형암호(암호화된 상태로 연산 가능한 암호), 형태보존암호(암호문이 평문과 동일한 형태를 가지는 암호), 경량암호(계산능력이 떨어지는 IoT 환경 등에서 효율적으로 사용할 수 있는 암호) 등이 있다.


0 개 댓글

답장을 남겨주세요