Посещений:
Matthew Chalk, Olivier Marre, Gasper Tkacik. Toward a unified theory of efficient, predictive, and sparse. Proceedings of the National Academy of Sciences, 2017; 201711114 DOI: 10.1073/pnas.1711114115 | |
---|---|
|
Neurons in the retina encode the information they receive for transmission to the brain. Наши глаза заполнены зрительной информацией, но нейроны наших глаз имеют определенные ограничения. Как нейроны отбирают, что необходимо экстрагировать и послать в головной мозг? Предлагаются различные теории для объяснения как это делают нейроны. Теперь разработана основа, которая объединяет предыдущие теории как специальные случаи и позволяет предсказывать существование типов нейронов, которые ранее не упоминались ни одной теорией.
Камеры, передающие видеоинформацию, способны записывать с неслыханной детализацией, но для сохранения всех этих данных необходимо огромное количество памяти: как мы можем сжать видео -- т.е. удалить информацию -- таким образом, чтобы мы не могли видеть разницу при воспроизведении? Сходным образом, это происходит в нашей повседневной жизни, наши глаза заполнены зрительной информацией, но нейроны накладывают определенные ограничения -- точно так как это делают инженеры. Т.о., принимая во внимание огромный набор стимулов, как же нейроны отбирают, что посылать в головной мозг? Нейробиологи давно задавались этим вопросом и предлагались различные теории, что нейроны делают в определенных ситуациях. Теперь Matthew Chalk (a former postdoc at IST Austria, теперь в Vision Institute in Paris), IST Austria Professor Gasper Tkacik и Olivier Marre разработали основы новой теории.
Одной из главных целей сенсорной нейробиологии является предсказание нервных реакций, используя математические модели. Ранее эти предсказания базировались на трех основных теориях, каждая из которых имела разные области применения, поэтому и варьировали исходные посылки о внутренних ограничениях, накладываемых нейронами, о типе сигнала и цели отбираемой информации. В целом нервный код является важным для функции предсказания, когда нейрон должен "возбудиться," т.е., испускать сигнал потенциала действия очень сходно с цифрой "1" в бинарном алфавите, который использует наш компьютер. Коллекции из одного или более нейронов, возбужденных в определенный момент времени может таким образом кодировать информацию. Эффективное кодирование предполагает, что нейроны кодируют как можно больше информации, насколько это возможно, учитывая их внутренние ограничения (шумы, метаболизм и т.д.). Прогнозирующее кодирование, с др. стороны, предполагает, что кодируется только информация, важная для предсказания будущего (напр. каким путем полетит насекомое). Наконец, разбросанное (sparse) кодирование предполагает. что только немногие нейроны активны в данный момент времени. Одной из проблем в данной ситуации является то, что остается неясным, как эти теории связаны, даже если они согласуются одна с др. Эти последние разработки внесли порядок в теоретический ландшафт: "Прежде не было ясно, как связаны или могут быть сравнены эти теории. Наше построение преодолело это, подогнав их др. к др. внутри основополагающей структуры, " сказал Gasper Tkacik.
В контексте командной структуры нервный код может быть интерпретирован как код, которые максимально увеличивает определенную математическую функцию. Эта функция -- и т.о., нервный код, усиливающий её до максимума -- зависят от трех параметров: шум, накладываемый на сигнал, цель или задача (т.e. будет ли сигнал использован для предсказания будущего), и сложность кодируемого сообщения. Теории, описанные выше, имеют силу только в специфических пределах значений для этих параметров и не покрывают все возможное пространство параметров, это вызывает проблемы, когда пытаются их протестировать экспериментально. Gasper Tkacik объясняет: "Когда Вы проектируете стимулы, чтобы предоставить нейронам проверять Вашу модель, чрезвычайно трудно различать нейроны, которые не полностью согласовывается с Вашей любимой теорией или альтернативой, т.к. Ваша предпочитаемая теория просто неполная. Наша объединенное построение может теперь делать конкретные предсказания для значений параметров, которые попадают в промежутки между ранее изученными случаями."
Объединенная теория преодолевает более ранние ограничения, позволяя нейронам иметь "смешанные" кодирующие цели; они не должны попадать в одну ясную, ранее изученную категорию. Напр., новая теория может объяснить случаи, когда нейроны по отдельности обнаруживали очень сильные шумы, но всё ещё должны были эффективно кодировать редкие стимулы. В более общем смысле, оптимальные нервные коды могут быть помещены в континуум согласно значениям параметров, которые определяют ограничения оптимальности, это объясняет явления, которые ранее наблюдались, но не объяснялись любой из существующих моделей. Matthew Chalk: "Многие теории, которые делают предсказания, имеет тенденцию быть негибким при тестировании: или это предсказывает правильный результат, или это не так. Что нам нужно больше всего, и это обеспечивает наша статья, это структуры, которые могут объяснять гипотезы для множества ситуаций и предположений."
В дополнение к наделению теории большей гибкостью, её структура позволяет делать конкретные предсказания для типов нервного кодирования, которые были ранее неизведаны, например кодирования, которое является и редким и прогнозирующим. Чтобы развить теорию, разработанную в их статье, Matthew Chalk спроектировал эксперименты для тестирования этих предсказаний и помог распределить по категориям нейроны как эффективные, предсказательные или разбросанные (sparse) -- или как комбинацию этих кодирующих целей (objectives). В лаб. Olivier Marre's сконцентрировались на сетчатке и разработали зрительные стимулы, которые д. активировать нейроны сетчатки, чтобы лучше всего показать их кодирующие предназначения (цели).
Эта структура может также быть использована более широко: "Вы не должны обязательно думать о нейронах", добавляет С. Tkaсik. "Идея, наложить рамку на эту проблему с точки зрения оптимизации, может использоваться в любом виде системы преобразования сигнала, и приближенные представления позволяет нам изучать системы, которые обычно имеют нетрактуемые вычислительные функции". Эти три ученых заложили основу для дальнейшего исследования Neural Information Processing Systems (NIPS).
|