日本語
 
Help Privacy Policy ポリシー/免責事項
  詳細検索ブラウズ

アイテム詳細

 前へ次へ 
  Imagined speech can be decoded from low- and cross-frequency intracranial EEG features

Proix, T., Delgado Saa, J., Christen, A., Martin, S., Pasley, B. N., Knight, R. T., Tian, X., Poeppel, D., Doyle, W. K., Devinsky, O., Arnal, L. H., Mégevand, P., & Giraud, A.-L. (2022). Imagined speech can be decoded from low- and cross-frequency intracranial EEG features. Nature Communications, 13:. doi:10.1038/s41467-021-27725-3.

Item is

基本情報

表示: 非表示:
アイテムのパーマリンク: https://hdl.handle.net/21.11116/0000-000C-8587-5 版のパーマリンク: https://hdl.handle.net/21.11116/0000-000C-8588-4
資料種別: 学術論文

ファイル

表示: ファイル
非表示: ファイル
:
Proix_2022_Imagined Speech.pdf (出版社版), 5MB
ファイルのパーマリンク:
https://hdl.handle.net/21.11116/0000-000C-8589-3
ファイル名:
Proix_2022_Imagined Speech.pdf
説明:
-
OA-Status:
Gold
閲覧制限:
公開
MIMEタイプ / チェックサム:
application/pdf / [MD5]
技術的なメタデータ:
著作権日付:
2022
著作権情報:
Copyright © The Author(s) 2022

関連URL

表示:
非表示:
説明:
-
OA-Status:
Gold

作成者

表示:
非表示:
 作成者:
Proix, Timothée, 著者
Delgado Saa, Jaime, 著者
Christen, Andy, 著者
Martin, Stephanie, 著者
Pasley, Brian N., 著者
Knight, Robert T., 著者
Tian, Xing, 著者
Poeppel, David1, 2, 著者                 
Doyle, Werner K., 著者
Devinsky, Orrin, 著者
Arnal, Luc H., 著者
Mégevand, Pierre, 著者
Giraud, Anne-Lise, 著者
所属:
1Ernst Strüngmann Institute (ESI) for Neuroscience in Cooperation with Max Planck Society, Max Planck Society, Deutschordenstr. 46, 60528 Frankfurt, DE, ou_2074314              
2Poeppel Lab, Ernst Strüngmann Institute (ESI) for Neuroscience in Cooperation with Max Planck Society, Max Planck Society, ou_3381225              

内容説明

表示:

資料詳細

表示:
非表示:
言語:
 日付: 2022-01-10
 出版の状態: オンラインで出版済み
 ページ: -
 出版情報: -
 目次: Reconstructing intended speech from neural activity using brain-computer interfaces holds great promises for people with severe speech production deficits. While decoding overt speech has progressed, decoding imagined speech has met limited success, mainly because the associated neural signals are weak and variable compared to overt speech, hence difficult to decode by learning algorithms. We obtained three electrocorticography datasets from 13 patients, with electrodes implanted for epilepsy evaluation, who performed overt and imagined speech production tasks. Based on recent theories of speech neural processing, we extracted consistent and specific neural features usable for future brain computer interfaces, and assessed their performance to discriminate speech items in articulatory, phonetic, and vocalic representation spaces. While high-frequency activity provided the best signal for overt speech, both low- and higher-frequency power and local cross-frequency contributed to imagined speech decoding, in particular in phonetic and vocalic, i.e. perceptual, spaces. These findings show that low-frequency power and cross-frequency dynamics contain key information for imagined speech decoding.
 査読: 査読あり
 識別子(DOI, ISBNなど): DOI: 10.1038/s41467-021-27725-3
 学位: -

関連イベント

表示:

訴訟

表示:

Project information

表示:

出版物 1

表示:
非表示:
出版物名: Nature Communications
種別: 学術雑誌
 著者・編者:
所属:
出版社, 出版地: -
ページ: - 巻号: 13 通巻号: 48 開始・終了ページ: - 識別子(ISBN, ISSN, DOIなど): ISSN: 2041-1723