Forwarded from Малоизвестное интересное
НАЙДЕН ОПТИМАЛЬНЫЙ СПОСОБ ПРИНЯТИЯ РЕШЕНИЙ
Это потрясающее открытие имеет колоссальные перспективы.
Оно может принципиально изменить способ принятия решений в бизнесе, социальной сфере, госуправлении и даже в организации государственной власти.
Повышение качества управления (важнейший фактор в конкурентной борьбе) - это улучшение соотношения удачно принятых (то есть правильных) решений к общему количеству принимаемых решений.
Сегодня, согласно McKinsey, как минимум, половина управленческих решений оказываются не верными, не смотря на все усилия науки и управленческих практик - см. например, здесь, здесь, здесь и здесь.
И хотя человечество уже вплотную подошло к необходимости включения в процесс принятия решений «социального интеллекта» («social intelligence»), методы краудсорсинга, «интеллекта роя» и пр. пока что не смогли изменить удручающую ситуацию с неумением людей найти оптимальную схему принятия сложных решений.
Прорыв произошел довольно неожиданно. На стыке нейронауки, теории информации, теории коллективного поведения и статистической физики удалось построить и верифицировать на большом объеме экспериментальных данных динамическую, стохастическую, распределенную модель принятия решений.
Природа, в ходе эволюции, смогла создать так и не превзойденные современной наукой механику и биохимию живых существ. Логично предположить, что и в вопросе поиска наилучшей схемы принятия решений нейронами головного мозга природа опережает достигнутый уровень развития науки.
Новое исследование Центра Биосоциальных Сложных Систем и «Института сумасшедших идей» в Сата-Фе не только определило схему принятия решений нейронами головного мозга, но и доказало, что эта схема является оптимальной для любых коллективных вычислений, производимых сетью интеллектуальных агентов.
Эта схема, названная «кодирующая двойственность» состоит их 2х этапов.
— Первый этап более всего похож на то, что я, в свое время, назвал термином синтеллектуальный краудсорсинг - отличающийся от традиционного краудсорсинга, в первую очередь, ограничением на взаимодействие интеллектуальных агентов в начальной фазе процесса принятия решения.
Цель данного этапа – накопление информации в условиях подавления информационного шума.
— Второй этап – это «формирование консенсуса», в ходе которого информация быстро распространяется от «знающих» нейронов (имеющих доступ к информации) к множеству остальных участвующих в схеме нейронов, резко увеличивая этим избыточность в системе.
Принципиальным для эффективности схемы является то, что этапы накопления и консенсуса, отличаются разными временными шкалами.
#Нейронаука #ПринятиеРешений #Краудсорсинг
Это потрясающее открытие имеет колоссальные перспективы.
Оно может принципиально изменить способ принятия решений в бизнесе, социальной сфере, госуправлении и даже в организации государственной власти.
Повышение качества управления (важнейший фактор в конкурентной борьбе) - это улучшение соотношения удачно принятых (то есть правильных) решений к общему количеству принимаемых решений.
Сегодня, согласно McKinsey, как минимум, половина управленческих решений оказываются не верными, не смотря на все усилия науки и управленческих практик - см. например, здесь, здесь, здесь и здесь.
И хотя человечество уже вплотную подошло к необходимости включения в процесс принятия решений «социального интеллекта» («social intelligence»), методы краудсорсинга, «интеллекта роя» и пр. пока что не смогли изменить удручающую ситуацию с неумением людей найти оптимальную схему принятия сложных решений.
Прорыв произошел довольно неожиданно. На стыке нейронауки, теории информации, теории коллективного поведения и статистической физики удалось построить и верифицировать на большом объеме экспериментальных данных динамическую, стохастическую, распределенную модель принятия решений.
Вопросы, поставленные авторами исследования, были достаточно сумасшедшими, равно как и 100%но научными:
-- как принимаются решения мозгом?
-- на уровне отдельных нейронов или огромной сетью коммуницирующих нейронов?
-- какова схема этого - как это происходит, и как организован процесс принятия решений?
Природа, в ходе эволюции, смогла создать так и не превзойденные современной наукой механику и биохимию живых существ. Логично предположить, что и в вопросе поиска наилучшей схемы принятия решений нейронами головного мозга природа опережает достигнутый уровень развития науки.
Новое исследование Центра Биосоциальных Сложных Систем и «Института сумасшедших идей» в Сата-Фе не только определило схему принятия решений нейронами головного мозга, но и доказало, что эта схема является оптимальной для любых коллективных вычислений, производимых сетью интеллектуальных агентов.
Эта схема, названная «кодирующая двойственность» состоит их 2х этапов.
— Первый этап более всего похож на то, что я, в свое время, назвал термином синтеллектуальный краудсорсинг - отличающийся от традиционного краудсорсинга, в первую очередь, ограничением на взаимодействие интеллектуальных агентов в начальной фазе процесса принятия решения.
Цель данного этапа – накопление информации в условиях подавления информационного шума.
— Второй этап – это «формирование консенсуса», в ходе которого информация быстро распространяется от «знающих» нейронов (имеющих доступ к информации) к множеству остальных участвующих в схеме нейронов, резко увеличивая этим избыточность в системе.
Принципиальным для эффективности схемы является то, что этапы накопления и консенсуса, отличаются разными временными шкалами.
#Нейронаука #ПринятиеРешений #Краудсорсинг
Frontiers
Frontiers | Dual Coding Theory Explains Biphasic Collective Computation in Neural Decision-Making
A central question in cognitive neuroscience is how unitary, coherent decisions at the whole organism level can arise from the distributed behavior of a larg...
Forwarded from Малоизвестное интересное
Я НАЧАЛЬНИК, ТЫ – AI
В прошлом посте была указана открытая ссылка за пэйвол HBR на последний номер этого журнала.
И поскольку доступ к этому номеру у вас уже есть, хочу порекомендовать еще один интересный материал из него – короткая статья «Алгоритмы видимость контроля».
В ней рассказывается про весьма неприятную историю, связанную с AI, - про которую почти не пишут. Речь идет о т.н. Эффекте «неприятия алгоритма»:
Суть этого «неприятия» в следующем.
Люди предъявляют к алгоритмам (решениям, принимаемым машинами) куда более жесткие требования, чем к самим себе. И поскольку почти любой алгоритм не идеален, люди отказываются использовать алгоритм, ссылаясь на его недостаточную точность и надежность.
Другими словами, себе-любимому мы готовы простить даже бОльшую ошибку, чем компьютеру.
В результате, человек оставляет за собой работу, куда лучше выполняемую компьютером. А бизнес продолжает терять на этом кучу денег, эффективность не растет и, вообще, прогресс не идет, куда следует.
Например, вот такая ситуация:
(1) врач в состоянии самостоятельно поставить правильный диагноз по снимку с вероятностью 60%,
(2) ему дается AI, который якобы будет ставить правильные диагнозы по снимкам с вероятностью 90%;
(3) на практике же получается, что AI ставит правильные диагнозы с вероятностью «только» 80%.
В результате, врач заявляет, что не нужен ему такой плохой AI, который не дотягивает до обещанной точности диагностики. Более того, раз он не может обеспечить 90% точность диагностики, ему вообще нельзя доверять.
В статье HBR описываются эксперименты, проводимые с целью найти способ борьбы с «неприятием алгоритма».
Согласно экспериментам, неприятие снижается, если человеку дать возможность подправлять решения AI.
Бред, конечно! А что делать? Иначе человек не может ничего с собой поделать и будет всячески дискредитировать и саботировать решения AI.
Цена вопроса здесь колоссальная. Эксперты считают, что «неприятию алгоритма» человечество обязано многими миллиардами, теряемыми, например, в ритейле из-за того, что там, по-прежнему, предпочитают опираться на человеческий прогноз при пополнении запасов, а не на куда более точные прогнозы уже существующих AI систем.
- - - - -
Легко представить, что для борьбы с «неприятием алгоритма» разработчики AI начнут предусматривать спецтрюки. Например, человек будет считать, что корректирует решения AI, а на самом деле, AI просто будет в этот момент играть с человеком в поддавки, давая ему ложное ощущение, что тот – главный.
Такой путь может закончиться плохо. И я бы сильно подумал, прежде чем пойти на такой риск.
Так за кем должно оставаться финальное решение???
N.B. От ответа на этот вопрос, в частности, зависит юридическая легализация управляемых AI авто и даже то, решится ли одна из сторон нанести ядерный удар.
Такова важность решения вопроса о «неприятии алгоритма».
Статья ссылается на это исследование.
Но есть и более новое.
#AI #ПринятиеРешений #Прогнозирование #НеприятиеАлгоритма
В прошлом посте была указана открытая ссылка за пэйвол HBR на последний номер этого журнала.
И поскольку доступ к этому номеру у вас уже есть, хочу порекомендовать еще один интересный материал из него – короткая статья «Алгоритмы видимость контроля».
В ней рассказывается про весьма неприятную историю, связанную с AI, - про которую почти не пишут. Речь идет о т.н. Эффекте «неприятия алгоритма»:
-- истоки которого коренятся у нас в сознании, но до конца не понятно – почему, и потому не очень ясно, как с этим бороться;
-- последствия которого определяют успех/неуспех и, соответственно, – применение/неприменение той или иной AI технологии в конкретных индустриях и областях личного и общественного использования.
Суть этого «неприятия» в следующем.
Люди предъявляют к алгоритмам (решениям, принимаемым машинами) куда более жесткие требования, чем к самим себе. И поскольку почти любой алгоритм не идеален, люди отказываются использовать алгоритм, ссылаясь на его недостаточную точность и надежность.
Другими словами, себе-любимому мы готовы простить даже бОльшую ошибку, чем компьютеру.
Это смахивает на наше свойство «в чужом глазу соломину видеть, а в своём — бревна не замечать».
В результате, человек оставляет за собой работу, куда лучше выполняемую компьютером. А бизнес продолжает терять на этом кучу денег, эффективность не растет и, вообще, прогресс не идет, куда следует.
Например, вот такая ситуация:
(1) врач в состоянии самостоятельно поставить правильный диагноз по снимку с вероятностью 60%,
(2) ему дается AI, который якобы будет ставить правильные диагнозы по снимкам с вероятностью 90%;
(3) на практике же получается, что AI ставит правильные диагнозы с вероятностью «только» 80%.
В результате, врач заявляет, что не нужен ему такой плохой AI, который не дотягивает до обещанной точности диагностики. Более того, раз он не может обеспечить 90% точность диагностики, ему вообще нельзя доверять.
В статье HBR описываются эксперименты, проводимые с целью найти способ борьбы с «неприятием алгоритма».
Согласно экспериментам, неприятие снижается, если человеку дать возможность подправлять решения AI.
Т.е. этот самый врач, у которого точность диагноза на треть хуже, чем у AI, будет подправлять диагностику AI.
Бред, конечно! А что делать? Иначе человек не может ничего с собой поделать и будет всячески дискредитировать и саботировать решения AI.
Цена вопроса здесь колоссальная. Эксперты считают, что «неприятию алгоритма» человечество обязано многими миллиардами, теряемыми, например, в ритейле из-за того, что там, по-прежнему, предпочитают опираться на человеческий прогноз при пополнении запасов, а не на куда более точные прогнозы уже существующих AI систем.
- - - - -
Легко представить, что для борьбы с «неприятием алгоритма» разработчики AI начнут предусматривать спецтрюки. Например, человек будет считать, что корректирует решения AI, а на самом деле, AI просто будет в этот момент играть с человеком в поддавки, давая ему ложное ощущение, что тот – главный.
Такой путь может закончиться плохо. И я бы сильно подумал, прежде чем пойти на такой риск.
Так за кем должно оставаться финальное решение???
N.B. От ответа на этот вопрос, в частности, зависит юридическая легализация управляемых AI авто и даже то, решится ли одна из сторон нанести ядерный удар.
Такова важность решения вопроса о «неприятии алгоритма».
Статья ссылается на это исследование.
Но есть и более новое.
#AI #ПринятиеРешений #Прогнозирование #НеприятиеАлгоритма
Ssrn
Overcoming Algorithm Aversion: People Will Use Imperfect Algorithms If They Can (Even Slightly) Modify Them
Although evidence-based algorithms consistently outperform human forecasters, people often fail to use them after learning that they are imperfect, a phenomenon