Проблема остановки.
Выдержка материала с вики: "Проблема остановки (или проблема останова) — это одна из центральных проблем в теории алгоритмов, которая может неформально быть поставлена в виде:
Даны описание процедуры и ее начальные входные данные, требуется определить, завершится ли когда-либо выполнение процедуры с этими данными. Альтернативой этому является то, что она работает всё время без остановки.
Алан Тьюринг доказал в 1936 году, что проблема остановки неразрешима на машине Тьюринга. Другими словами, не существует общего алгоритма решения этой проблемы.
Проблема остановки занимает центральное место в теории вычислимости, поскольку представляет собой первый пример задачи, которую невозможно решить алгоритмическим путем. Для многих других задач можно доказать их алгоритмическую неразрешимость, попытавшись свести задачу к проблеме остановки.
Это делается по следующей схеме: пусть есть некая задача, для которой требуется установить ее неразрешимость. Тогда предположим, что она разрешима, и попытаемся, используя этот факт, написать алгоритм решения проблемы остановки. Если это удастся, то мы придем к противоречию, ведь известно, что не существует такого алгоритма. А значит, предположение было неверным и исходная задача также неразрешима."
В условии новости http://lenta.ru/articles/2015/02/19/killerrobotethics/ которую я прочёл на «Ленте», меня позабавила задача про вагончик и мораль в условиях существования необходимости в отношении интеграции такого явления как мораль в бинарную структуру какого-нибудь потомка машины Тьюринга.
Из чего я сделал вывод, что мысля в условиях логики нельзя прийти к решению проблемы остановки. так как, что уже почти век как очевидно, либо это приведёт к ошибке, либо к отсутствию конечности алгоритма выполнения задачи.
Неясно мне только одно, почему за долгое время исследования и моделирования искусственного интеллекта, никто не выработал алгоритм работы эмоций, как контрагента между разумом и волей внутри тела содержащего искусственный интеллект?
У меня есть пара соображений по этому вопросу. Проблема остановки на мой взгляд существует благодаря незаметности противоречия между локально взятым телом, и абстракцией. Например, человек - локально взятое тело, это целостная система, законченная и завершённая внутри пределов собственного тела, существующая как организм в среде природы, а логика - это сущность вне тел.
Она, как и любое вещественное число, имеет бесконечность вычисляемых значений числа в отношении каких-либо данных, и благодаря логике становится очевидно, почему какое-либо вещественное значение числа имеет бесконечную детализацию вычисления.
Говоря о роботах и их «интеллекте», прежде будет логичнее избрать другой алгоритм работы ИИ, сделав ИИ зависимыми от их предела локальности как это существует у людей. Ты можешь непрерывно концентрироваться на выполнении задачи следуя только логике, "но индикатор заряда батарей" на исходе и ты прекращаешь это делать и засыпаешь.
В моделирование ИИ следует добавить эмоции и волю и разграничить ИИ, и следствия его решений(волю) так, чтобы это имело логику в отношении эмоций, алгоритм которых будет интегрирован в тело содержащее ИИ.
Допустим, закончив пример с проблемой остановки, проблема в отношении существования себя не абстрактно а в условии замкнутого тела имеющего условный предел, будет исчерпана если добавить условие определять за какое количество шагов будет исполнятся программа и подчинить исполнение этому условию.
Если программа не решилась за это количество шагов - приходит ответ что количество шагов недостаточно. Если решилась, ок, если ушла в рекурсию - это не будет бесконечно.
Добавление главенствующего условия определения количества шагов прежде чем программе будет директивировано решение эти шаги выполнять избавит изначальное условие от ошибки которая возникает при неправильной постановке условия.
Так же следует главенствующего контрагента — эмоцию, снабдить безусловной возможностью вмешаться в определённый момент в выполнение программы и прервать её по тому или иному решению.
Алгоритм эмоции в моём субъективном видении представляет собой систему накопительных шкал которые будут оценивать те или иные качественные вещи в количественном для структуры системы эмоций отношении, позволяя моделировать взаимодействия настроения-поведения.
Мораль, как сущность, существует благодаря накопительным установкам передающимся через подражание из поколения в поколения, и здесь усматривается принцип существующий в общем праве - прецедентный подход.
Система поведения сможет быть основана на передаче неанализируемых ссылок, которые при анализе рассчитываются приблизительно и присутствует погрешность которой по алгоритму пренебрежения погрешностями также пренебрегают.
Так же пренебрегают любой информацией не проходящей через внимание и потому в алгоритме эмоций будет система управления пренебрежениями к информации, где будет сокращаться точность информации таким образом, что чем дольше она находится без внимания, тем меньше становится её рейтинг.
По сути, нормального робота можно создать если просто прописать ему установки по поведению как это делают люди в процессе воспитания потомства. Где он бы подвергал их сомнению, согласно самообучающейся системе эмоционального ограничивания бесконечности анализа ветви сути рассуждения над темой предмета, где бинарно бы кодировалось право доступа на дальнейшее разрешение размышления в отношении детерминации точности той или иной вещи в поведении и принятии решений.
И, венцом этому стал бы социум и распознавание его сигналов. Например, восприятие кричащего существа расценивалось бы как коррекция поведения в отношении запрета на выполнение действия, а улыбка на лице добавляла бы «очки» в отношении разрешения решениям интеллекта быть выраженными (связь разум-воля), появились бы мысли.
У каждого из нас есть мысли, но благодаря пониманию этических установок на основе анализа уровня этических установок других участников случайного социума, мы принимаем решения - следовать тем или иным алгоритмам. Где корректирующим фактором снова служат бинарные установки эмоции (гордость-позор)\(одобрение\порицание)\(удовольствие\боль).
Благодаря такой системе некое локальное тело, содержащее ИИ как контейнер для логики, внутри ограниченного по вычислительным способностям устройства, смогло бы самостоятельно существовать, будучи подобным человеку, самостоятельно создавая алгоритмы, обрабатывая данные, и принимая решения которые удовлетворили бы социум.
Без принадлежности данного локального тела - социуму из других примерно равных по характеристикам локальных тел, не имеет смысла делать ИИ в локальном теле как таковом.
Человек, выпавший из социума, с течением времени забывает всё. Теряет рассудок.
Человек, находящийся вне социума, в случае подверженности сомнениям абсолютно всех своих установок морали, может позволить себе сделать абсолютно всё.
Тогда, ещё можно зациклить алгоритм на ограничении самоисследования, если плечо настроения становится слишком высоким, чтобы установки не были вынесены немедленным переосмыслением парадигмы, благодаря высокой аналитической способности ИИ.
Ну, и также не следует забывать что язык, как существующее нечто - всего лишь следствие интеллекта, а не его основной алгоритм.
Некоторые существующие в эмоциях вещи недостаточно объяснить языком и необходимо создать алгоритмы учитывающие накопительные баллы ощущений в общей шкале ощущения для коррекции поведения в отношении себя и социума тела с ИИ на борту.
Тогда, мы получим то, что так давно пытаемся сделать - копию человека из кремния. Ну, или животного. Ну, или на худой конец пресмыкающегося или насекомого, зависит от вычислительной способности ядра. =\