모든 프로그램의 최종본은 바로 사람의 '뇌'의 기능을 하는 것이 아닐까 싶다.
즉, 스스로 학습하고 지식을 쌓아 이해하며 결론을 도출해 내는 엔진이 가장 핵심이 아닐까.

갑자기 이런 생각이 들었다.
내가 아기였을 시절에는 부모님이 말씀해 주시는 여러 단어들을 들음으로써 말을 배우기 시작했을 것이다. 그리고 단어가 모여 어절을 이루고, 어절이 모여 문장을 이루고 문장이 모여 단락을 이루고... 결국 장문의 글을 읽고 이해하게 되었으리라.

그렇다면, 아기였을 때, 아무런 의미를 몰랐을 때, 부모님이 말씀해 주셨던 단어는 어떻게 내 머릿속에 저장되었을까?

아마도 2가지 큰 부류로 나눌 수 있지 않을까.

파장으로 이루어지는 '소리'와 그에 해당하는 '행동'.
사람의 행동을 프로그램으로 당장 어찌할 수 없으니 소리에 대해서 공통점을 뽑아내 어원으로 삼으면 단어를 스스로 학습하는 프로그램이 가능하지 않을까.

그래서 어느 나라 언어든 가장 기본이 되는 형태소별로 발음에 대한 어원에 해당하는 주파수를 가지고 있고, 그걸 기반으로 빠른 시간내에 검색해서 우리가 들을 수 있는 '소리'로 재구성해 낼 수 있다면 Text To Speech나 Speech To Text를 완벽하게 구현할 수 있지 않을까....

수십만 단어에 대한 사전 데이터베이스 없이도 가능하지 않을까 문득 생각이 들었다.

한번 만들어봐야겠다.
받은 트랙백이 없고, 댓글이 없습니다.

댓글+트랙백 RSS :: http://www.yongbi.net/rss/response/478

트랙백 주소 :: http://www.yongbi.net/trackback/478

트랙백 RSS :: http://www.yongbi.net/rss/trackback/478

댓글을 달아 주세요

댓글 RSS 주소 : http://www.yongbi.net/rss/comment/478
[로그인][오픈아이디란?]
오픈아이디로만 댓글을 남길 수 있습니다