Учёные перестали понимать как именно ИИ принимает решения

Добро пожаловать на форум гроверов GanjaLive – уникальное сообщество, объединяющее энтузиастов и профессионалов в сфере выращивания конопли и грибов. Здесь вы найдете бесценные советы, проверенные методы и личные истории, которыми делятся участники и со всего мира.

Наш форум создан для тех, кто стремится углубить свои знания в гроувинге и улучшить навыки в культивации. Вне зависимости от уровня опыта – будь вы новичок или эксперт – у нас всегда найдется место для обсуждений, вопросов и обмена идеями.

На GanjaLive вы сможете:

  • Узнать о лучших сортах конопли и грибов, подходящих для выращивания в различных условиях.
  • Открыть для себя секреты эффективных методов культивации и ухода за растениями. Как выращивается марихуана в домашних условиях или в профессиональных теплицах.
  • Обсудить использование современных технологий и оборудования, облегчающих процесс выращивания конопли или грибов.
  • Найти поддержку единомышленников и поделиться своими успехами в уютной и дружелюбной атмосфере.

Мы ценим свободу слова и поддерживаем анонимность наших пользователей, обеспечивая безопасность и конфиденциальность обсуждений среди гроувинг специалистов на высоком технологичном уровне (более подробно в Политике конфиденциальности, или Дисклеймере). Форум гровинга GanjaLive – это больше, чем просто форум. Это сообщество людей 18+, объединенных общим интересом, где каждый может найти полезную информацию и поддержку на пути к совершенству в выращивании.

Присоединяйтесь к нам, делитесь опытом, учитесь новому и станьте частью динамичного и развивающегося сообщества GanjaLive!

Волшебник Изумрудного Города
Команда форума
₲106
Учёные перестали понимать как именно ИИ принимает решения.









 


brainlike-chips-contribute-towards-development-of-.jpg


Выступающие на конференции Neural Information Processing Systems специалисты в области искусственного интеллекта заявили, что перестали понимать принцип принятия решений, которым руководствуется ИИ, — сообщает Quartz.


По мнению экспертов, принимать как должное действия ИИ без понимания его логики — довольно легкомысленно, ведь чтобы люди приняли модели машинного обучения, им нужно знать, чем именно руководствуется ИИ, решая, как именно ему следует поступить в конкретной ситуации.

Часто решения, принятые ИИ, бывают предвзятыми, кроме того, его ассоциативное «мышление» тоже зачастую бывает не столь идеальным, в результате чего ИИ проводит неправильные аналогии. Такие ошибки могут дорого обойтись, если ИИ будет руководить сложными проектами, такими, к примеру, как полёт на Марс — в этом случае неверный поступок искусственного интеллекта может не только уничтожить дорогостоящее оборудование, но и повлечь за собой смерти людей. Поэтому, перед тем, как позволить ИИ самостоятельно принимать важные решения, необходимо сначала изучить принципы, которыми он руководствуется, — поясняет Мэтра Рагху, специалист по ИИ из Google.

На конференции она представила доклад, в котором описала процесс отслеживания действий отдельных частей нейросети. Отсматривая их по частям, можно понять логику ИИ, а затем, в случае чего, её и подкорректировать. Анализируя миллионы операций, она смогла выявить отдельные искусственные «нейроны», которые концентрировались на неверных представлениях, а затем отключить их, сделав ИИ более сговорчивым и правильным.

Это чем-то похоже на то, как учитель подаёт какой-то материал, а затем просит ученика пересказать своими словами, что именно он понял из лекции, — поясняет Кири Вагстафф ИИ-эксперт из NASA.

Судя по результатам этого исследования, верно понять действия искусственного интеллекта не так уж и сложно. Главное — решить проблему до того, как станет слишком поздно.

Источник





 
 
Назад
Сверху