我来举个例子。
比如有人说,用扬声器播放一个常识问题,人用麦克风回答。这就是不行的,因为语音识别和语音合成技术很成熟,所以这个问题就变成了:给定任意常识问题,应该回复什么答案?我们知道常识问题肯定是从某个常识数据库里面抽取的,所以一定有一个范围;在这个范围内,我们可以用统计学方法,获得答案(不需要什么机器学习)。如果常识数据库非常大,我们无法收集足够样本,那么我们就可以用语义语法上下文等概念,将每个问题解剖,丢进机器学习程序,一样可以获得很高的命中率。
最致命的是,一个非常大的常识数据库,会给用户带来很多困扰,比如对于农村妇女,可能一道题目要解1 - 3分钟,所以也是不适合的。