22년도 1월 13일자로 나온 영상.
(원제: AI isn't as smart as you think -- but it could be)
구글의 전설이라 불리는 프로그래머 제프 딘(Jeef dean)이 인공지능과 관련된 대중 강연을 수행했다.
인공지능이라는 학문은 컴퓨터의 성능이 별로이던 시절부터 수학적으로 연구된 아주 심도 있는 학문이다.
그러나 몇 번의 침체기를 맞게 되는데, 그러한 침체기에서 다시 트렌드로 성장할 수 있게 된 계기가 바로 신경망(Neural network)의 적용이라 볼 수 있다.
물론, 무어의 법칙을 따라가는 컴퓨터의 성능 향상으로 인한 요소도 존재한다.
신경망이라고 하면, 입력값과 가중치를 적절히 조합하여 결괏값을 산출하는 하나의 단위체라 볼 수 있다.
그중에서도 우리가 자주 쓰는 형태는 심층(Deep) 신경망이며, 이른바 Dense한 Bipartite graph의 형태이다.
이들의 가중치를 적절히 조정해가면서 모델을 학습시켜 나가는 게 현재 쓰고 있는 방식인데, 생각보다 효과가 좋다.
그러나, 이러한 모델은 3가지 문제점을 지니고 있다고 강연에서 언급하였다.
첫 번째는 각 모델은 특정 과업만 수행(예측)할 수 있다는 단점이다.
가령, 자율주행을 목적으로 하는 인공지능을 그대로 바둑게임을 하도록 작동시키면 결과는 보나 마나 일 것이다.
그러나, 사람은 이와는 다르게 여러 가지 과업을 수행할 수 있다는 차이점이 있다.
앞선 예를 적용하면, 운전을 할 줄 아는 사람한테 게임을 가져다주면, 금방 적응해서 게임을 잘 플레이하게 될 것이다.
따라서 다양한 목적으로 멀티태스킹이 가능한 모델을 만들어내는 것이 첫 과제가 되겠다.
두 번째는 현대의 인공지능 모델은 단일 종류의 데이터만 다룰 수 있다는 점이다.
가령, 텍스트를 분석해서 의미를 잘 해석해 내는 인공지능이 있다고 치자.
만일 입력값으로 이미지를 넣게 된다면, 바로 에러가 날 것이다.
그러나 사람은 소리, 맛, 냄새, 시각, 촉감 등이 혼합되어도 정보를 문제없이 판단하고 이해할 수 있다는 차이가 있다.
따라서 다양한 데이터가 한 번에 들어와도 문제없이 적용 가능한 모델을 만들어내는 것이 두 번째 과제가 되겠다.
마지막은 앞서 말했듯, Dense(밀집된)한 형태로 모델을 만든다는 특징이 있다.
단순한 예측을 수행하는 모델조차도, 밀집된 구조로 짠 다음에 학습을 시키게 된다는 것이다.
이는 우리의 뇌 구조랑 다른 형태이며, 우리의 신경 구조는 그보다 적은 수준으로도 다양한 과업을 수행한다는 차이가 존재한다.
따라서 Sparse(희소 구조의)한 구조로도 예측을 수행할 수 있어야 하며, 그때그때 다른 결합을 통해 새로운 결과를 얻어낼 수 있도록 모델을 설계해야 할 것이다.
즉, 요약하면 다음의 세 가지 문제가 앞으로 인공지능에서 해결해야 할 과업이라 볼 수 있겠다.
- 여러 가지 과업을 수행할 수 있는 일반적인 모델 제작
- 여러 종류의 데이터가 들어와도 학습 가능한 모델 제작
- 희소 구조로 설계 가능한 모델 제작
그리고 강연 마지막에선 인공지능과 관련된 윤리적 책임 요소도 언급하였다.
모델이 어떻게 공정성, 상호운용성(Interoperability), 사생활 보호, 보안 등을 준수하여 학습되어야 할 것인가도 고려를 해야 한다고 강연했다.
구글에선 2018년도에 별도로 인공지능 가이드라인을 제시했으며, 이를 통해서 사회에서 인공지능을 어떻게 사용해야 할 것인가를 고민해 볼 수 있을 것이라 했다.
'기술동향' 카테고리의 다른 글
이렇게 코딩하십시오 Human..... AlphaCode의 등장 (0) | 2022.02.03 |
---|