而最后的学习区,就是介于舒适区和恐慌区之间的,这里的难度对你刚刚好。有一点挑战性,有一些你不懂的东西,但是只要你用心,借助你现有知识结构体系内的已有知识,重新嫁接、归纳、演绎、推演,可以把这个不懂解决掉。

    在学习区的时候,如果不懂的比例太高,就会恐慌,厌学。如果不懂的比例太低,就会疲掉,懒得走心。只有不懂的比例刚刚好,才最容易进入最高效学习状态——按照大心理学家米哈利的理论,这种状态就叫‘心流’。”

    “心理学和认知神经科学的基础还不错嘛。”顾玩表扬了女朋友一句,

    确实,作为才双修心理学一个学期的新人,有这种见解已经很牛逼了。

    然后顾玩话锋一转:“不过,以往我们都认为,心流是一种可遇而不可求的状态,但很快,随着对机器学习的剖析,我们会发现,进入心流或者说最高效学习状态,是有科学的最优解的。

    这个最优解,就需要我们把一张卷子、一次学习、一个机器大数据训练集的对错比例、难易比例,调到一个最优化的玄妙数值上。只有量身定做了这个数值,无论人还是机器,都能达到最完美的学习效率。哪怕一个学渣,都能在学习中感受物我两忘开天眼的高效。”

    “具体要怎么做到??”麻依依已经忘了自己是在聊学术问题了。

    ……

    对啊,具体要怎么做到?

    在地球上,201年的时候,亚利桑那大学和布朗大学的两位人工智能算法专家,就给出了最优解。

    他们的结论是,让一个机器学习的训练集中,对错比例控制在157时,可以达到机器学习算法效率最高、进步最快的状态。

    比如让计算机用人工智能图像识别,来鉴别一万张类似猫的图片,来学习“怎样判断图里面的东西是不是一只猫”。

    这时候,你要拿413张真的是猫的图片,和157张似猫非猫的图片,去给人工智能喂数据,那么机器学完这10000万图片、得到对错评分后,得到的提高是最多的。

    这个是自然数学法则的最优解了,换句话说,你拿414张真猫图和156张似猫非猫图去喂,机器吃完这1万个大数据之后,进步量也会比岗前前一组略低。

    这个数据具体怎么来的呢?是人类算法学家,从2010年,谷歌开始操练深度学习以来,不断反复试验,全人类算法专家共同实验了八年,摸出来的。

    更奇妙的是,地球人后来做了更多深入实验,发现这个学习效率机制,真的不仅适用于机器学习,也适用于人类大脑。

    在“试错型学习”,或者说早期认知方面,人脑和模拟人脑宏观运作规律表现的深度学习,是一致的。

    地球人当时设计的人体实验,主要是拿婴儿做实验,因为可以尽量减少干扰项。选取原本认知发育水平差不多的婴儿,让他们认图片训练,就跟现在一两岁的小孩,看画本教他们什么是猫、什么是狗。这个训练跟深度学习的机器视觉训练,是很相似的。

    然后放大样本容量,给每个婴儿的画片对错比例不同。结果最终果然是错误率接近157的婴儿,认知新事物进步速度最快。成年人的话,实验暂时还没法设计,因为干扰项太多。

    这就最终引申出一个惊人的结论:怎么样的学习,才是最高效?最容易进入心流的?