위키피디아에서 발생하는 Bot 간의 편집 다툼과 인공지능의 미래 일반 S/W관련




 인터넷 백과사전 「Wikipedia」는 2017년 4월 현재, 295가지 언어의 총 4400만 건 이상의 기사가 공개되어 있으며 인터넷에서 무엇인가를 조사할 때 가장 참고할만한 사이트라는 평가를 받고 있다. 그런데 Wikipedia 기사를 편집하는 작업의 일부를 자동화된 소프트웨어, 이른바 Bot이 담당함으로써 효율화되고 있다는 사실을 알고 계신가?

그런데 새로운 연구에 따르면 Wikipedia의 Bot 끼리 각자의 편집 작업을 삭제하는 편집 다툼이 벌어지는 사례가 적지 않으며 게다가 그러한 상황이 오랫동안 인식되지 못한 상태에서 방치되었다는 사실이 판명되었다.

Wikipedia의 막대한 기사 편집을 담당하는 임무는 기본적으로는 모두 자원봉사자인 인간이지만 사람에 따라서는 그 작업을 Bot에게 맡기고 있다. 옥스포드 대학 인터넷 연구소의 밀레나 츠베트코바(Milena Tsvetkova) 등의 논문에 따르면 Wikipedia에서 펼쳐지는 편집 작업의 15%는 Bot이 맡고 있다.  양적인 면에서 Bot은 인간의 0.1%에 불과하지만 작업 효율이 매우 높음을 알 수 있다. 

20170404wikibot.jpg

츠베트코바 등의 연구에서 밝혀진 Wikipedia의 편집을 사람이 하는가 Bot이 하는가를 언어별로 나타낸 차트. Vandal은 파괴 행위.image via PLOS.org

하지만 츠베트코바 등의 연구는 Bot의 의외의 비효율성을 밝혀냈다. Wikipedia가 시작된 2001년부터 2010년까지의 Wikipedia의 편집 이력을 분석한 결과 일부의 Bot 끼리 끝없는 편집 다툼이 펼쳐지고 있다는 것이다. 인간이라면 누구나 자신의 작업을 반복해서 반려당하면 어느 단계에서 알아차리고 토의하는 등의 대응을 취하겠지만 Wikipedia의 Bot에게는 그러한 체크 기능이 없었다. 츠베트코바 등은 Bot의 행동 관리를 각각의 자원봉사자가 맡고 있어 일원화되어 관리되고 있지 않다는 점을 문제시했다.

그렇다곤 하나 Wikipedia가 Bot이 편집을 할 것이라는 상황을 예상하지 않은 것은 아니다. Bot에 관한 방침을 명문화해서 승인을 받아 이용하는 등의 제한은 시행하고 있다. 또한 그 방침 중에는 Bot의 이용 조건 중 하나로써 「『논의할 여지』가 있는 편집에 사용하지 말 것」이 정해져 있어 이론 상으로는 편집 다툼 등이 일어나지 않아야 했다.

그래도 예를 들어 「아널드 슈워제네거」나 전 파키스탄 대통령인 「페르베즈 무샤라프」 또는 「우즈베키스탄」, 「아랍어」 등의 기사에서 Bot 간의 의견이 충돌하고 있었다. 이러한 경향에 대해서 츠베트코바 등은 Bot 간의 편집 다툼은 여러 가지 언어를 관통하는 주제에 대해서 일어나는 경우가 많았다고 분석했다. 예를 들어(한 가지 사례로)「아널드 슈워제네거」의 기사 속의 지명 「오스트리아」에 대해 Wikipedia의 「오스트리아」 기사에 링크를 달 때 어떤 Bot은 일본어판으로 링크하고 다른 Bot은 영어판으로 링크하는 등의 것이다. 언어의 차이가 맹점이 되어 예상하지 못한 사태가 일어난 것 같다.

다행히 2013년에 다른 언어 간의 링크를 보조하는 시스템인 「Wikidata」이 세워진 이후 Bot의 편집이 크게 줄었다. 따라서 츠베트코바 등은 현재 위와 같은 Bot 사이의 다툼은 사라졌다고 보고 있다.

그러나 그들의 연구가 밝혀낸 문제의 범위는 그 당시의 Wikipedia에 머무르지 않는다. 여기에서 나타난 것은 자율적으로 동작하는 Bot은 Wikipedia와 같은 제한된 공간에서 일정한 승인 프로세스를 거치더라도 예기치못한 결과를 야기할 수 있다는 것이다. 향후 자동차 운전을 비롯해 다양한 Bot이 실제 세계에서 작동된다는 것을 생각하면 이러한 식견은 중요한 의미를 갖는다. 

또한 이번 연구는 언어에 따른 Bot의 행동 경향의 차이도 밝혀냈다. 예를 들어 독일어와 포르투갈어를 비교하면 후자가 Bot에 의한 편집 횟수가 많고 다른 Bot의 편집의 거부는 전자가 10년간 25회, 후자가 185회로 크게 달랐다. Bot 간의 충돌이나 차이에 대해서 츠베트코바 등의 논문은 다음과 같이 밝히고 있다.

이 복잡함의 한 가지 원인은 각각의 Bot이나 Bot이 동작하는 환경의 배경에는 인간 설계자가 존재한다는 사실. 그리고 인공물은 인간의 문화를 체현하는 것이라는 사실이다. Bot이 보다 세련되게 발전되는 상황에서 사회학자들은 인간의 문화나 사회생활을 이해하는데 더욱 주의를 기울일 필요가 있을 것이다.

예를 들어 자동차 운전의 경우도 국가나 지역, 환경이 다르면 교통 법규가 달라질 뿐만 아니라 매너나 모럴 등 미묘한 면에서의 조정이 필요할 것이다.  필자의 경험으로는 미국의 교차점에서는 청색 신호가 되면 선두에 있는 차량이 갑자기 좌회전(일본의 경우라면 우회전에 해당)하는 일이 종종 있고 반대로 직진하는 차량은 발진하기까지 일정한 여유 시간을 두는 경향이 있다. 하지만 도쿄의 교차점에서 직진할 때 동일하게 한 박자 쉬려고 했다간 아마 후속 차량이 난리를 피울 것이다. 또한 국가뿐만 아니라 대도시인가 지방도시인가, 넓은 길인가 복잡하게 엉킨 길인가에 따라서도 운전이 달라진다. 논문의 공동저자인 타하 야세리(Taha Yasseri)는 보도 자료에서 이렇게 밝혔다. 

자동차 운전의 경우 독일의 아우토반에서 할 때와 이탈리아 토스카나의 언덕에서 할 때는 차이가 날 것이다. 마찬가지로 Bot이 활동하는 로컬한 온라인 인프라도 Bot의 행동이나 성능에 일정한 영향을 미칠 것이다.

그리고 Bot은 동작하는 환경뿐 아니라 그것을 개발한 인물이나 조직의 사고 방식에 크게 영향을 받는다. 예를 들어 자율주행차의 속도의 경우, Google에서는 일부러 제한 속도를 시속 10마일(16km) 초과해서 주행할 수 있도록 설계되었다고 알려져 있다. 한편 이미 일반 도로에서 자율주행차를 실험한 Tesla는 소프트웨어 업데이트로 제한 속도를 초과할 수 없도록 하거나 그 후 곧 가능하게 되돌리거나 하는 등 방침이 흔들리고 있는것처럼 보인다. 현 상황에서는 속도에 대한 사고 방식 한 가지만 보더라도 누가 만드냐에 따라 또는 그 때의 상황에 따라 달라지는 것이다.

현재 자율주행차뿐 아니라 예를 들어 Apple의 Siri나 Amazon Echo와 같이 사용자의 음성을 인식하여 집안의 조명이나 음향기기를 조작할 수 있는 디바이스 등 실제 사물을 움직일 수 있는 Bot이 다양한 곳에서 각각 개발되고 있다。하지만 다른 사상이나 경위로 제작된 Bot이 하나의 공간에서 활용된다면 Bot 제작자가 예기치 못한 결과가 일어날 수 있다는 점은 자명하다. Bot이 100% 활용되는 사회의 안전성을 보장하려면 Bot 사이의 상호 작용을 검증하는 대규모 실험과 Bot을 일정한 형태로 일원화하여 관리하는 시스템이 필요하지 않을까 싶다.


핑백

  • 반성의 시간 : 주갤 현실 2017-04-11 16:08:03 #

    ... 로 술렁댐 이상황에서도 꾸준한 주식 갤러리... 아마도 현재 주식갤을 이용하는 유저들은 광고차단을 안쓰거나 쓸줄을 모르는사람들인듯..? 위키피디아에서 발생하는 Bot 간의 편집 다툼과 인공지능의 미래 혹은 이런 느낌이랄까... 최순실 국정농단이 망친건 정말 한두개가 아닌듯.. ... more

덧글

  • 자유로운 2017/04/09 16:09 # 답글

    확실히 흥미로운 부분이군요. 저런 식으로 싸울 건 예상도 못했을텐데...
  • 나인테일 2017/04/09 19:11 # 답글

    이제 스카이넷과 옴닉이 자기들끼리 전쟁을 하고 누가 이겨도 미래는 없는 상황을 볼지도 모르겠군요.
  • 잠본이 2017/04/13 01:14 #

    그들이 다른걸 잊은채 사전 편집하고 덧글배틀로 날을 샌다면 세상은 평화로울지도
댓글 입력 영역



통계 위젯 (블랙)

411690
6872
4160541

이 이글루를 링크한 사람 (블랙)

599