Исследователи Apple недавно опубликовали работу о методе PARS, который позволяет нейросетям самостоятельно разбираться в структуре мозговых сигналов без разметки данных, а связанный патент 2023 года раскрывает, как интегрировать такую технологию прямо в AirPods через адаптивные электроды на амбушюрах.
Вместо традиционных масок для восстановления фрагментов сигнала, как в MAE, PARS заставляет трансформер угадывать временной сдвиг между случайными парами окон EEG — это учит модель глобальным зависимостям в мозговой активности, от ритмов сна до предвестников судорог. Тестирование на датасетах вроде EESM17 (ухо-EEG с 12 каналами в ушах) и TUSZ показало, что предобученные PARS-модели опережают конкурентов в сценариях с малым объемом аннотаций, где стандартные подходы сдуваются из-за нехватки данных. Представьте: сырые записи с уха разбираются на фазы REM/Non-REM без подсказок, просто прогнозируя, насколько “дальше” один фрагмент от другого во времени.
Ухо-EEG здесь не случайность — датасет EESM17 фиксировал ночные сигналы у девяти субъектов с каналами в ушах и на scalp’e, подтвердив, что компактные электроды ловят ключевые паттерны без громоздкой шапки. Патент US20230225659A1 усиливает картину: AirPods с десятками электродов на насадках динамически отбирают лучшие по импедансу, шуму контакта и расстоянию до референса, взвешивая их в общий сигнал через ИИ. Жесты вроде сжатия запускают мониторинг EEG/EMG/EOG, минимизируя проблемы с посадкой — уши разные, но алгоритм сам калибруется, обходя нужду в кастомных формах.
Эта комбинация намекает на эволюцию AirPods от PPG-сенсоров сердечного ритма к полноценным нейроинтерфейсам: PARS разгоняет анализ без дорогой разметки, а многоканальный захват решает инженерные боли вроде сдвигов при движении головы. Пока это R&D — исследование не ссылается на патент напрямую, а фокус на методе, но синергия очевидна для задач вроде сна или моторных образов. Реализация потребует on-device ML для приватности и низкого энергопотребления, но фундамент заложен крепко.
Рынок наушников встряхнется, если Apple сольет hardware-патенты с софт-исследованиями: от аудио-аксессуаров к устройствам, предсказывающим аномалии ЦНС в реальном времени, с акцентом на адаптивность под индивидуальную анатомию. Пока патенты вроде этого висят годами, но свежий PARS подчеркивает приоритет: не сырые данные, а умение их структурировать без человеческого надзора.
