블로그 이미지
현이제이

calendar

1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
2021. 6. 1. 17:13 시사 follow-up/기타 (Etc.)

  인공지능이라고 불리는 AI(Artificial Intelligence)가 나날이 발전하고 있다. 네이버 지식백과의 정의를 빌리면, AI란, "인간의 지능이 할 수 있는 사고·학습·모방·자기 계발 등을 컴퓨터가 할 수 있도록 연구하는 컴퓨터공학 및 정보기술 분야"이다. 이세돌과 인공지능이 바둑을 겨룬 일이 큰 화제가 되었던 것처럼, AI는 게임이나 바둑부터 시작해서, 점차 그 활용 분야를 넓혀가고 있다. "신경망, 퍼지이론, 패턴 인식, 전문가 시스템, 자연어 인식, 이미지 처리, 컴퓨터 시각, 로봇공학 등 다양한 분야가 인공지능의 일부분을 이루고 있다"(네이버 지식백과)고 하는 데에서 알 수 있듯, 여러 곳에서 인공지능이 활용되고 있는 것이다.

  AI가 제공하는 기능으로 여러 가지가 있지만 크게는 분류, 분석, 인식, 예측 등으로 나눌 수 있을 것으로 보인다. 이러한 기능들을 실생활과 연관지어 생각해보자면, 첫 번째는 "맞춤형 서비스"라고 할 수 있다. 인터넷에서 개인 검색 이력에 따라 연관 자료들을 보여주는 기능, 사용자가 음악을 듣는 성향을 파악하고 좋아할만한 음악들을 추천해주는 기능, 인터넷 쇼핑을 할 때에도 사용자의 구매 및 검색 내역에 따라 좋아할만한 것을 추천해주는 기능, 학습에 있어서 취약한 부분들을 진단해서 맞춤형으로 학습 서비스를 제공하는 기능 등이 그 예들이다. 또, 다른 하나는 "인식(과 반응)"이다. 한 매체(문자, 이미지, 음성 등)를 다른 매체로 변환하고 인식하는 과정이 중간 과정에서 이루어진다는 점이 특징인데, 사용자의 음성을 인식하는 시리(Siri), 빅스비(Bixby), 기가지니(GigaGenie) 등이 듣는 말에 대답하거나, 듣는 명령에 따라 특정 기능을 수행하는 것이 있으며, 카메라나 화면상의 글자를 인식해서 텍스트로 옮기거나, 더 나아가 번역을 해주는 것, 그리고 카메라나 화면상의 이미지를 인식해서 이를 인터넷상에서 검색하거나 연관된 정보를 제공하는 것 등이 이러한 기능의 예에 속한다. 세 번째로는 "판단 및 예측"으로, 오랜 기간 축적된 다량의 데이터와 학습을 바탕으로 새로운 데이터를 분석하거나 예측하는 것을 말한다. 자율주행 기능이 탑재된 자동차가 고정된 차선이나 사물들 뿐만 아니라 주변 차들의 움직임을 포함하여 변화하는 상황들을 파악 및 예측하며 운전을 하는 기능, 주식의 흐름을 판단하고 예측하는 기능 등이 이에 속한다고 할 수 있다.

  AI가 활용되고 있는 무궁무진한 분야에 비하면 위에서 언급된 내용은 극히 일부일 것이다. 이에 더해 최근에는 IBM, 마이크로소프트, 아마존에서 사람의 표정을 읽을 수 있도록 AI를 개발하고 있다고 한다. 사람들의 기호나 행동을 파악해서 고객을 더 잘 이해하기 위함이라는 것이다. 또는, 디즈니가 만든 영화에 대해 사람들이 어떻게 반응하는지 등을 파악할 수도 있다. 흥미롭게도, 사람들이 이를 체험해볼 수 있도록 아래의 파이낸셜 타임즈 링크(https://ig.ft.com/emotion-recognition/)에서 사람들의 표정에 따라 감정을 분석하는 것을 보여주고 있다! 실제로 이 링크에서 디즈니 애니메이션 주토피아의 장면을 보면서 아무 표정을 보이지 않았더니 neutral이라고 분석했고, 찡그렸더니 disgusted로 분석했으며, 슬픈 표정을 지으니 sad라고 분석한 것을 보여주었다! 입을 벌렸을 때는 물론이고, 그러지 않고 눈만 동그랗게 떠도 surprised의 표시 바가 꿈틀거리는 모습도 흥미로웠다. (안타깝게도 fearful한 표정을 어떻게 지어야 할지는 몰라서 시험해보지는 못했다.) 이 외에도 특정 정치인에 대해서 어떤 반응을 보이는지, 운전 중에 주변 상황에 대해 어떻게 또는 얼마나 신속하게 반응하는지 (경각심) 등을 보여주기도 한다 (장면이 멈추었다고 방심하지 마시라, 카메라는 계속해서 내 표정을 분석하고 있다!ㅋㅋ 심지어 내가 모르는 사이에 내 표정들을 몇 장 찍어놓고, "우리가 보여준 모델이 네 관심을 모든 순간마다 다 끌지는 못했나보네?ㅋㅋㅋ라는 뉘앙스의 글까지 보여줘서 이것도 깨알 재미였다고 할까나ㅋㅋㅋㅋㅋ)

  물론 AI도 장점과 단점이 공존한다. 고객을 파악하는 데에 아주 큰 도움이 될 수도 있고, 유용한 정보를 제공해주며, 우리가 다른 기계들 또는 도구들을 손쉽게 다룰 수 있게 해주기도 한다. 또, 갑자기 생각난 여담이지만, 안타깝게도 요즘 코로나 때문에 유치원에서 마스크를 쓰고 수업이 이루어지고 있는 바람에, 사람들의 얼굴 표정이나 입모양 등을 보면서 언어와 비언어적 표현들, 사회적인 맥락과 의사소통을 배워야 하는 시기에 놓인 어린 아이들이 이러한 사회적 발달에 어려움을 겪는다는 기사를 본 적이 있다. 혹시 AI가 이런 문제에 대한 대안을 제시할 수는 없는지 순간적으로 퍼뜩 떠오르기도 한다. 그렇지만 어디까지나 이제 AI가 분석하려는 우리 표정들도 우리의 개인정보를 담고 있다. 이 링크에서 밝힌 것처럼 아직까지 표정인식은 완전하지 못하기 때문에 정확도도 떨어지고 문화적, 인종적 편견이 어느 정도 있다는 단점이 이미 있으면서도, 개인정보 유출에 조심스러운 것도 사실이다. 우리가 어디서든 약간의 개인정보를 입력하게 되면 조심스러워하는 것처럼, 어디서든 카메라를 발견하게 된다면, 혹은 카메라가 있지 않은지 멈칫하면서 조심스러워지지는 않을까? 교통정보를 읽는 CCTV가 이젠 우리의 표정까지 읽을 수 있다면, 어떤 교통사고가 일어나더라도 그 당시 우리의 경각심이 얼마나 높았는지를 기계가 판단하면서 우리의 부주의로 인한 잘못여부와 과실정도도 판단할 수 있지 않을까? 어떤 장소를 방문하면서 또는 어떤 행위를 하면서 그곳에 숨겨져있던 카메라가 우리의 의도를, 그리고 앞으로 취할 행동까지 다 읽어내지는 않을까? 더 고도로 발전된 스토커가 되지는 않을까? 전문가가 아닌 나조차도 이렇게 여러 가지 생각이 든다. AI에 대한 순기능과 역기능은 어느 기술에서든 그런 것처럼 꼭 논의될 필요가 있는 것 같다. (마지막에 보여주는 내 전반적인 표정-Your face was expressive 46% of the time-에 대한 말에 또 한번 놀라면서 이 글을 마친다.)

 

 

참조

네이버 지식백과 https://terms.naver.com/entry.naver?docId=3586510&cid=59277&categoryId=59278 

The Emotion Business: who's cashing in on your emotions https://ig.ft.com/emotion-recognition/

 

 

 

 

posted by 현이제이