(1) 传统机器学习的主要假设之一(例如上文所述的监督学习)
是用于训练分类器的训练数据和用于评估分类器的测试数据属于相同的特征空间,并且遵循相同的概率分布。但是,由于人的可变性,在许多应用中经常违反这一假设[55]。
reference:
A. M. Azab, J. Toth, L. S. Mihaylova, and M. Arvaneh, “A review on transfer learning approaches in brain–computer interface,” inSignal Processing and Machine Learning for Brain-Machine Interfaces. Institution of Engineering and Technology, 2018, pp. 81–101.
例如,EEG数据分布中的变化通常发生在从不同主题或跨主题内的会话和时间中获取数据时。而且,由于EEG信号是变化的而不是静态的,因此广泛的BCI会话表现出独特的一致性一致性分类问题[56]。
因此,迁移学习的目的是通过利用在学习给定任务时获得的知识来解决不同但相关的任务来应对违反该假设的数据。换句话说,迁移学习考虑用基于在学习另一个任务的同时获得的信息来增强在一个任务(也扩展到一个会话或主题)上学习的分类器的性能的一组方法。迁移学习的进步可以放宽BCI的局限性,因为它不需要从开始就进行校准,迁移信息的噪音更少,并且无需依赖先前可用的数据来增加数据集的大小。
(2) 当前大多数机器学习研究都集中在静态数据上,这不是对快速变化的大脑信号进行准确分类的最佳方法[34]
reference:
X. Zhang, L. Yao, X. Wang, J. Monaghan, and D. Mcalpine, “A survey on deep learning based brain computer interface: Recent advances and new frontiers,” arXiv preprint arXiv:1905.04149, 2019.
我们将介绍具有CNN架构的自发EEG应用程序,近期研究中GAN的利用,RNN的过程和应用程序,尤其是长短期记忆(LSTM)。我们还说明了从深度学习算法和转移学习方法扩展而来的深度转移学习,然后以对抗攻击为例,对用于系统测试的深度学习模型进行了举例说明.