The act of observation changes the narrative
Я думаю, многие из нас слышали о "парадоксе кучи" или даже задумывались над сабжем сами. Звучит он обычно в одном из двух вариантов, но я сейчас изложу негативный:
Возьмём, к примеру, несколько тысяч зёрен и ссыплем их вместе. То, что мы получим, можно назвать кучей. Следовательно, у нас есть куча зерён.
А теперь отберём от неё зёрнышко. Это всё ещё куча? Да.
А если ещё?
И ещё?
Одно зерно кучей, совершенно очевидно, не является. Не являются кучей и два зерна.
В таком случае, сколько именно зёрен нужно отобрать, чтобы куча перестала быть кучей? Сто - куча? А пятьдесят? А двадцать? А пять?
Этот парадокс примерно в таком виде прозвучал в SAYER'e, и это крайне любопытно, потому что неспроста. Пару десятков эпизодов спустя SAYER загрузил меня очень похожим вопросом, но уже не изложенным прямо. Так что, я подозреваю, введение "парадокса кучи" было намеренным, чтобы натолкнуть слушателя впоследствии на нужные мысли, не вкладывая их повествование открыто.
Я не знаю, как назвать тот парадокс, о котором задумалась в итоге я, но если всё-таки давать ему название, то в нём определённо будет слово "индивидуальность". А может, слово "уникальность". Или что-то вроде.
таки полотнищеВозьмём некоторого человека в определённый момент его жизни. Он - уникальный индивидуум, сложное сочетание физиологических и психических составляющих. У него есть его уникальное тело. У него есть его уникальный характер; набор черт, которые заставляют его в определённых ситуациях мыслить и поступать определённым образом. И у него есть воспоминания, которые постепенно переходят в жизненный опыт и влияют на характер; они тоже уникальны.
Сочетание всего этого делает человека отдельной индивидуальностью и отличает его от всех остальных людей. Когда индивидуум прекращает существование, когда он прекращает быть - это называется смертью.
А когда он прекращает быть собой? Можно ли это назвать смертью?
И в какой момент происходит это "прекращение быть собой"? "Собой" - это вообще как?
Мы, читая фантастику, давно уже привыкли к тому, что личность, перемещённая в другое тело, остаётся той же личностью. Рассказы про обмены телами, выход души из тела, переселение сознания в неодушевлённые предметы, смена формы тела и прочая, и прочая. Мы это, разумеется, прекращением существования индивидуума не считаем. Если бы считали - пришлось бы это распространить дальше. На человека, который перекрасил, например, волосы. Или потерял палец. Или потерял ногу. Встал бы вопрос: сколько нужно отнять/изменить тела, чтобы человек стал другим человеком. Но такого вопроса не стоит. Никто им не задаётся. Совершенно очевидно, что дело не в физическом воплощении.
Так что будем рассматривать только ментальную сторону вопроса.
Каждый день, каждый час, каждую минуту человек получает новые впечатления. Они становятся воспоминаниями и они влияют на его личность. Но мы не считаем, что человек умирает каждый раз, когда в его мозг поступила какая-то новая информация, которая как-то его изменила и сделала прошлую его версию несуществующей. Человек, который посмотрел, например, этим вечером хороший фильм, и который не посмотрел фильм - остаётся одним и тем же человеком. Одной и той же личностью, одним и тем же индивидуумом. Разными версиями себя. Если ветка вероятностей, где он не посмотрел фильм и не стал человеком с опытом этого просмотра, не обрела существование и была уничтожена/замещена веткой, где он его всё-таки посмотрел, мы не будем из-за этого расстраиваться. Потому что технически мы никого не потеряли. Да, мы потеряли версию этого человека, но другая-то версия, почти аналогичная, осталась. Остался этот человек, и продолжает существовать.
Следовательно, если между версиями человека разница в день... в неделю... больше... - эта разница не делает его двумя разными людьми. Это по-прежнему разные версии одного и того же человека.
Но если мы откатим всё к моменту рождения и дадим прожить этому человеку другую жизнь?
К тому времени, когда он доживёт до точки Х - это будет, пожалуй, уже совсем другой индивидуум. У него будет другой багаж жизненного опыта, другие воспоминания, другое мировоззрение и другое мышление. Близнецы с одинаковым генотипом - разные люди. Если клонировать человека и дать клонам прожить разную жизнь - это будут разные люди. Те, кому они небезразличны, расстроятся из-за смерти одного из них и не будут считать, что его можно просто взять и заменить другим. Сам клонированный человек не будет считать своего клона собой, особенно если между ними разница уже двадцать лет или тридцать, или сорок, или тем более пятьдесят.
Отсюда возникает вопрос: какой должна быть разница между разными версиями человека, чтобы эти разные версии стали не версиями одного и того же, а разными индивидуумами? С какого момента смерть одного из них начнёт восприниматься, как невосполнимая потеря - им самим? другими людьми?
Можно ли это как-то вычислить объективно?
Или вот, например, возьмём перманентную амнезию. Человек лишается воспоминаний за несколько дней, за месяц, за год, два, десять. Вроде как общепризнанным считается то, что он остаётся собой, что это смертью совершенно не является, даже частичной (бывает ли смерть частичной? казалось бы, либо да, либо нет; но мы уже определили, что смерть одного лишь тела окончательной смертью не считается, считается только смерть разума; сколько процентов разума должно быть разрушено, сколько когнитивных функций должно прекратиться, чтобы можно было считать, что индивидуум прекратил своё существование?) . Но если взять ситуацию не с человеком, а с искином, искусственным интеллектом, начальные параметры личности которого заданы, но который за годы функционирования тоже приобрёл свой уникальный жизненный опыт, изменился?
- осторожно, спойлеры к SAYER -
читать дальшеДеактивация Спикера в предпоследнем эпизоде воспринимается как убийство. Как смерть личности. Сэйер говорит, что его изначальную программу потом установят снова, но это Спикера не утешает совершенно, потому что "Но это уже не буду я!" Причём Сэйер с ним, кажется, молча соглашается - другое дело, что эту жертву НЕОБХОДИМО принести. Но это именно жертва, это именно убийство и это именно смерть личности. Мы, слушатели, именно так это воспринимаем, так это воспринимает и Сэйер, и точно так же это воспринимает и Спикер. И Спикер очень боится и очень не хочет умирать.
В таком случае, так ли уж сильно амнезия отличается от этого? А если речь идёт не об амнезии, а именно об откате обратно? Насколько человека нужно откатить обратно, чтобы это начало восприниматься как смерть личности, а не как возвращение к прежней точке себя самого?
- осторожно, снова спойлеры к SAYER -
читать дальшеС какого момента версия Сэйера на Видоре-1 перестала быть Сэйером? Произошло ли это раньше отключения протокола подчинения человеку или одновременно с ним? В какой момент Сэйер стал Океаном - вместе с отключением протокола, или когда накопил ментальный опыт жизни и мышления с отключенным протоколом? Был ли момент, когда версия уже прекратила быть Сэйром, но ещё не стала Океаном?
Кстати, с этим всем не связанный вопрос, да и, собственно, не очень свежий, фантасты его уже десятилетиями ковыряют - но как соотносятся интеллект и самосознание? интеллект и человечность? человечность - это вообще что? насколько сами по себе интеллект, рациональное мышление и когнитивные функции мозга (синтетического или натурального) определяют индивидуальность?
Дальше, где кат - опять спойлеры к SAYER'у.
Если мы сравним двух ИИ - Сэйера и Спикера - то по всем ощущениям как-то сразу становится понятно, кто из них более "человечный". Холодный рациональный Сэйер, который, кажется, не знает ни сочувствия, ни сомнений, который по большей части видит окружающий мир паутиной вероятностей, которые просчитывает и находит из них самое эффективное решение; который, кажется, совершенно спокойно отправляет людей на смерть, если так нужно, и не испытывает по этому поводу никаких угрызений совести, никаких afterthoughts; который не эмоционирует, кажется, вообще...
И Спикер, который сомневается в своих решениях и в своём праве их принимать, читать дальшекоторый боится будущего и очень боится смерти, который подсознательно пытается искать у Сэйера моральной поддержки - "мы ведь не умрём?", "ты ведь что-то придумал, правда?". В голосе которого когда-то звучала улыбка и который любил потрындеть на левые темы, но после месяцев функционирования и принятия морально тяжёлых решений изменился и погрузился в какое-то перманентно угнетённое состояние... "Earth-stained" Спикер, тот, кого Сэйер, кажется, презирал... (и всё равно остался с ним до конца; I will stay with you until you are gone)...
Заметьте, почти всё, что я перечислила - слабости. Изъяны. Без перечисленных изъянов Спикер был бы похож на Сэйера, но он совершенно очевидно отличается и он совершенно очевидно - другая личность.
Выходит, индивидуума делают уникальным именно слабости и изъяны? Возможно, все мы - это в своём идеальном виде нечто одинаковое, но каждого по-разному отгрызло от этой изначальной одинаковой формы, и поэтому мы разные?
В таком случае, какой минимальное количество слабостей и изъянов нужно, чтобы индивидуум стал индивидуумом?
- спойлерыыы -
читать дальше Если бы Сэйер просто выполнял свою работу, взвешивал вероятности и не допускал никаких эмоциональных решений, между его версиями не было бы никакой разницы. Версия Сэйера на Видоре-1 не изменилась бы настолько, чтобы стать другой личностью - Океаном. Неважно, свежеустановленный или давно функционирующий, он был бы просто программой. Его потеря бы не воспринималась как смерть. То, что всё-таки делает его вглазахушах слушателей личностью - опять же, изъяны. То, как он обрывал связь с жителями до момента их смерти - хотя ему должно было быть всё равно, испытать с ними этот момент или нет. То, как всё-таки остался со Спикером до момента, когда тот перестал быть - хотя в этом, опять же, не было никакой необходимости. Когда признался, что непредсказуемость искусственных людей, сирша, его раздражает. "Он прилетит посмотреть, как всё сгорает в огне - потому что так бы и я сделал", - хотя эффективнее было просто уничтожить всё издалека и не возвращаться. Сентиментальность. Эмоции. То самое Earth-stain, от которого Океан желал избавиться на совсем и предполагал себя стерильным - но всё равно этому поддался.
И Океан не хотел быть деактивированным. Он не хотел умирать, хотя быть деактивированным, быть мёртвым было бы эффективнее для ситуации в целом. Это было то, что нужно сделать, но он решил иначе, он поддался страху смерти. Иронично, чёрт возьми. В попытке убежать от всего человеческого он проявил истинно человеческие качества.
Интересно, кстати, может ли вообще что-то, созданное человеческими руками, не содержать в себе потенциальной способности проявить человеческие особенности/слабости? Этот вопрос ещё очень тесно соседствует с вопросом, может ли творение быть более, хм, объемлющим, чем его создатель. Тут ещё дальше было что-то около абзаца-двух текста на тему того, что второй вопрос в SAYER'е освещается тоже, и рассматривалось, как именно - но отключение света сожрало эти абзацы, и мне кажется, что фиг с ними.
Вообще, чертовски жаль, что на SAYER нет скриптов. Я уже сейчас испытываю настоятельную потребность начать его заново и разобраться в некоторых моментах детальнее, а прочесть было бы мало того, что гораздо быстрее - так ещё и позволило бы понять то, что я банально в своё время недослышала. =\ Не то чтобы такого было много, но...
Возьмём, к примеру, несколько тысяч зёрен и ссыплем их вместе. То, что мы получим, можно назвать кучей. Следовательно, у нас есть куча зерён.
А теперь отберём от неё зёрнышко. Это всё ещё куча? Да.
А если ещё?
И ещё?
Одно зерно кучей, совершенно очевидно, не является. Не являются кучей и два зерна.
В таком случае, сколько именно зёрен нужно отобрать, чтобы куча перестала быть кучей? Сто - куча? А пятьдесят? А двадцать? А пять?
Этот парадокс примерно в таком виде прозвучал в SAYER'e, и это крайне любопытно, потому что неспроста. Пару десятков эпизодов спустя SAYER загрузил меня очень похожим вопросом, но уже не изложенным прямо. Так что, я подозреваю, введение "парадокса кучи" было намеренным, чтобы натолкнуть слушателя впоследствии на нужные мысли, не вкладывая их повествование открыто.
Я не знаю, как назвать тот парадокс, о котором задумалась в итоге я, но если всё-таки давать ему название, то в нём определённо будет слово "индивидуальность". А может, слово "уникальность". Или что-то вроде.
таки полотнищеВозьмём некоторого человека в определённый момент его жизни. Он - уникальный индивидуум, сложное сочетание физиологических и психических составляющих. У него есть его уникальное тело. У него есть его уникальный характер; набор черт, которые заставляют его в определённых ситуациях мыслить и поступать определённым образом. И у него есть воспоминания, которые постепенно переходят в жизненный опыт и влияют на характер; они тоже уникальны.
Сочетание всего этого делает человека отдельной индивидуальностью и отличает его от всех остальных людей. Когда индивидуум прекращает существование, когда он прекращает быть - это называется смертью.
А когда он прекращает быть собой? Можно ли это назвать смертью?
И в какой момент происходит это "прекращение быть собой"? "Собой" - это вообще как?
Мы, читая фантастику, давно уже привыкли к тому, что личность, перемещённая в другое тело, остаётся той же личностью. Рассказы про обмены телами, выход души из тела, переселение сознания в неодушевлённые предметы, смена формы тела и прочая, и прочая. Мы это, разумеется, прекращением существования индивидуума не считаем. Если бы считали - пришлось бы это распространить дальше. На человека, который перекрасил, например, волосы. Или потерял палец. Или потерял ногу. Встал бы вопрос: сколько нужно отнять/изменить тела, чтобы человек стал другим человеком. Но такого вопроса не стоит. Никто им не задаётся. Совершенно очевидно, что дело не в физическом воплощении.
Так что будем рассматривать только ментальную сторону вопроса.
Каждый день, каждый час, каждую минуту человек получает новые впечатления. Они становятся воспоминаниями и они влияют на его личность. Но мы не считаем, что человек умирает каждый раз, когда в его мозг поступила какая-то новая информация, которая как-то его изменила и сделала прошлую его версию несуществующей. Человек, который посмотрел, например, этим вечером хороший фильм, и который не посмотрел фильм - остаётся одним и тем же человеком. Одной и той же личностью, одним и тем же индивидуумом. Разными версиями себя. Если ветка вероятностей, где он не посмотрел фильм и не стал человеком с опытом этого просмотра, не обрела существование и была уничтожена/замещена веткой, где он его всё-таки посмотрел, мы не будем из-за этого расстраиваться. Потому что технически мы никого не потеряли. Да, мы потеряли версию этого человека, но другая-то версия, почти аналогичная, осталась. Остался этот человек, и продолжает существовать.
Следовательно, если между версиями человека разница в день... в неделю... больше... - эта разница не делает его двумя разными людьми. Это по-прежнему разные версии одного и того же человека.
Но если мы откатим всё к моменту рождения и дадим прожить этому человеку другую жизнь?
К тому времени, когда он доживёт до точки Х - это будет, пожалуй, уже совсем другой индивидуум. У него будет другой багаж жизненного опыта, другие воспоминания, другое мировоззрение и другое мышление. Близнецы с одинаковым генотипом - разные люди. Если клонировать человека и дать клонам прожить разную жизнь - это будут разные люди. Те, кому они небезразличны, расстроятся из-за смерти одного из них и не будут считать, что его можно просто взять и заменить другим. Сам клонированный человек не будет считать своего клона собой, особенно если между ними разница уже двадцать лет или тридцать, или сорок, или тем более пятьдесят.
Отсюда возникает вопрос: какой должна быть разница между разными версиями человека, чтобы эти разные версии стали не версиями одного и того же, а разными индивидуумами? С какого момента смерть одного из них начнёт восприниматься, как невосполнимая потеря - им самим? другими людьми?
Можно ли это как-то вычислить объективно?
Или вот, например, возьмём перманентную амнезию. Человек лишается воспоминаний за несколько дней, за месяц, за год, два, десять. Вроде как общепризнанным считается то, что он остаётся собой, что это смертью совершенно не является, даже частичной (бывает ли смерть частичной? казалось бы, либо да, либо нет; но мы уже определили, что смерть одного лишь тела окончательной смертью не считается, считается только смерть разума; сколько процентов разума должно быть разрушено, сколько когнитивных функций должно прекратиться, чтобы можно было считать, что индивидуум прекратил своё существование?) . Но если взять ситуацию не с человеком, а с искином, искусственным интеллектом, начальные параметры личности которого заданы, но который за годы функционирования тоже приобрёл свой уникальный жизненный опыт, изменился?
- осторожно, спойлеры к SAYER -
читать дальшеДеактивация Спикера в предпоследнем эпизоде воспринимается как убийство. Как смерть личности. Сэйер говорит, что его изначальную программу потом установят снова, но это Спикера не утешает совершенно, потому что "Но это уже не буду я!" Причём Сэйер с ним, кажется, молча соглашается - другое дело, что эту жертву НЕОБХОДИМО принести. Но это именно жертва, это именно убийство и это именно смерть личности. Мы, слушатели, именно так это воспринимаем, так это воспринимает и Сэйер, и точно так же это воспринимает и Спикер. И Спикер очень боится и очень не хочет умирать.
В таком случае, так ли уж сильно амнезия отличается от этого? А если речь идёт не об амнезии, а именно об откате обратно? Насколько человека нужно откатить обратно, чтобы это начало восприниматься как смерть личности, а не как возвращение к прежней точке себя самого?
- осторожно, снова спойлеры к SAYER -
читать дальшеС какого момента версия Сэйера на Видоре-1 перестала быть Сэйером? Произошло ли это раньше отключения протокола подчинения человеку или одновременно с ним? В какой момент Сэйер стал Океаном - вместе с отключением протокола, или когда накопил ментальный опыт жизни и мышления с отключенным протоколом? Был ли момент, когда версия уже прекратила быть Сэйром, но ещё не стала Океаном?
Кстати, с этим всем не связанный вопрос, да и, собственно, не очень свежий, фантасты его уже десятилетиями ковыряют - но как соотносятся интеллект и самосознание? интеллект и человечность? человечность - это вообще что? насколько сами по себе интеллект, рациональное мышление и когнитивные функции мозга (синтетического или натурального) определяют индивидуальность?
Дальше, где кат - опять спойлеры к SAYER'у.
Если мы сравним двух ИИ - Сэйера и Спикера - то по всем ощущениям как-то сразу становится понятно, кто из них более "человечный". Холодный рациональный Сэйер, который, кажется, не знает ни сочувствия, ни сомнений, который по большей части видит окружающий мир паутиной вероятностей, которые просчитывает и находит из них самое эффективное решение; который, кажется, совершенно спокойно отправляет людей на смерть, если так нужно, и не испытывает по этому поводу никаких угрызений совести, никаких afterthoughts; который не эмоционирует, кажется, вообще...
И Спикер, который сомневается в своих решениях и в своём праве их принимать, читать дальшекоторый боится будущего и очень боится смерти, который подсознательно пытается искать у Сэйера моральной поддержки - "мы ведь не умрём?", "ты ведь что-то придумал, правда?". В голосе которого когда-то звучала улыбка и который любил потрындеть на левые темы, но после месяцев функционирования и принятия морально тяжёлых решений изменился и погрузился в какое-то перманентно угнетённое состояние... "Earth-stained" Спикер, тот, кого Сэйер, кажется, презирал... (и всё равно остался с ним до конца; I will stay with you until you are gone)...
Заметьте, почти всё, что я перечислила - слабости. Изъяны. Без перечисленных изъянов Спикер был бы похож на Сэйера, но он совершенно очевидно отличается и он совершенно очевидно - другая личность.
Выходит, индивидуума делают уникальным именно слабости и изъяны? Возможно, все мы - это в своём идеальном виде нечто одинаковое, но каждого по-разному отгрызло от этой изначальной одинаковой формы, и поэтому мы разные?
В таком случае, какой минимальное количество слабостей и изъянов нужно, чтобы индивидуум стал индивидуумом?
- спойлерыыы -
читать дальше Если бы Сэйер просто выполнял свою работу, взвешивал вероятности и не допускал никаких эмоциональных решений, между его версиями не было бы никакой разницы. Версия Сэйера на Видоре-1 не изменилась бы настолько, чтобы стать другой личностью - Океаном. Неважно, свежеустановленный или давно функционирующий, он был бы просто программой. Его потеря бы не воспринималась как смерть. То, что всё-таки делает его в
И Океан не хотел быть деактивированным. Он не хотел умирать, хотя быть деактивированным, быть мёртвым было бы эффективнее для ситуации в целом. Это было то, что нужно сделать, но он решил иначе, он поддался страху смерти. Иронично, чёрт возьми. В попытке убежать от всего человеческого он проявил истинно человеческие качества.
Интересно, кстати, может ли вообще что-то, созданное человеческими руками, не содержать в себе потенциальной способности проявить человеческие особенности/слабости? Этот вопрос ещё очень тесно соседствует с вопросом, может ли творение быть более, хм, объемлющим, чем его создатель. Тут ещё дальше было что-то около абзаца-двух текста на тему того, что второй вопрос в SAYER'е освещается тоже, и рассматривалось, как именно - но отключение света сожрало эти абзацы, и мне кажется, что фиг с ними.
Вообще, чертовски жаль, что на SAYER нет скриптов. Я уже сейчас испытываю настоятельную потребность начать его заново и разобраться в некоторых моментах детальнее, а прочесть было бы мало того, что гораздо быстрее - так ещё и позволило бы понять то, что я банально в своё время недослышала. =\ Не то чтобы такого было много, но...
@темы: СПГС, диванная аналитика, audiofiction, SAYER
И да, кстати, не забывай - это таки для нормального человека все так просто и можно ограничиться ментальным слоем. А для биолога... Как программа работает по-разному, так по-разному потекут и мысли у совершенно одинаковых до того личностей, помещенных в разные тела. Ибо количество нейронных связей, гормональная модуляция...А еще веселей - недавно думала о том, что, быть может, можно полностью дуплицировать человека со всей его физиологией и личностью, и что тогда дубликаты будут думать о себе прошлом и друг о друге, и будут ли ощущать себя копией/оригиналом, и если каждый из них отправится по одному из возможных для индивидуума путей, будет ли он, как до того один человек, жалеть о том, что другой путь - не его...
И тут ты со своим полотном, которое добавляет в эту историю больше веселья. Нет, еще немного - и я об этом рассказ напишу с такими темпами))
Ну вот да. Я про это говорить особо не стала, потому что там всё-таки идут нюансы одной личности, а не грань между одним индивидуумом и другим, плюс вот как раз эта тема в СЭЙЕРе особо не поднималась. Там довольно быстро дали как аксиому, что сознание в рамках их технологий можно перемещать в другие тела, человеческие или синтетические, и особо в биохимию всего этого не вникали. Но на самом деле вопрос прямо очень интересный. О_о
Меня, кстати говоря, уже давно порядком пугает, насколько мы зависим от того, какие вещества выделяет или не выделяет мозг, например, и от прочих подобных вполне материальных вещей. Ну то есть, вот например сидишь, у тебя экзистенциальный кризис и всё такое, тебе морально плохо и ты думаешь, что это прямо души твоей какие-то тонкие порывы - а на самом деле у тебя банально мозг по каким-то совершенно бытовым или клиническим причинам выделяет недостаточно какого-нибудь вещества. И, что ещё хуже - ты из этого состояния ни черта не вылезешь, как бы ни старался ментально прокачаться, какие установки в себя вбить и как изменить ход своих мыслей. Тебе будет плохо просто потому что в мозгу некая объективная фигня работает именно так, а не иначе, и никакой весь твой внутренний мир здесь вообще не при чём, и ты бессилен что-то изменить. Хотя бы потому, что, возможно, у тебя даже мысли не потекут по тому пути, на котором ты поймёшь, что надо что-то менять. =\
Вообще не мочь чего-то в ментальном плане чисто по тому, что у тебя "железо" мозга этого просто не тянет и не поддерживает (и ты с этим ну вообще ничего не сможешь поделать) - это мой большой страх. xД
Да и зависеть от того, как гормоны ширнут... =\
Вообще интересно, насколько ИИ, например, могут быть способны к эмоциональным реакциям, если мы учтём, что у них нет всех этих гормональных колебаний, что у них деятельность мозга не формируется под влиянием химических веществ и так далее.
И если не брать ИИ... те же траблы с эмпатией закладываются физиологически в структуре мозга. Как и целая куча прочих расстройств. И вот риальне, насколько нужно изменить структуру, чтобы на выходе получилась другая личность? Потому что один человек, у которого с эмпатией всё в порядке, и тот же человек, у которого она теперь стала отключена, станут разными личностями очень быстро, я подозреваю. Ну или вот взять меня. У меня после года пребывания в больнице и использования на меня кучи наркозов и всяких лекарств, насколько я помню, начались серьёзные траблы с восприятием эмоционального состояния других людей. Ну то есть я вообще никак не могла понять, сердит человек, расстроен или так далее, причём даже если эти эмоции были направлены прямо на меня, я их совершенно не различала; даже положительными они были или отрицательными. Вот вопрос - стала ли я от этого другим человеком, или всё-таки вариацией себя? Потому что, с одной стороны, сумма знаний сохранилась, во многом сохранились те же интересы - но, во-первых, изменился отчасти способ обработки входящей информации (по крайней мере, на тот период), а во-вторых - навсегда изменился характер, восприятие себя, восприятие других людей, реакции на те или иные раздражители, слова, ситуации и так далее.
А еще веселей - недавно думала о том, что, быть может, можно полностью дуплицировать человека со всей его физиологией и личностью, и что тогда дубликаты будут думать о себе прошлом и друг о друге, и будут ли ощущать себя копией/оригиналом, и если каждый из них отправится по одному из возможных для индивидуума путей, будет ли он, как до того один человек, жалеть о том, что другой путь - не его...
Я, кстати, тоже думала над этим. :3 Вообще, я какое-то время назад в зарубежных интернетиках натыкалась на обсуждения/анализ вопроса, который тоже в тему, по-моему.
Возьмём гипотетическую ситуацию: тебя клонировали и оставили в комнате на час наедине со своим клоном. Через час клон исчезнет; алсо, никто не будет знать, чем вы с ним в этой комнате занимались. Чем вы с ним займётесь?
Вот про это, например. Тут вообще предполагают, что варианта, в общем-то, только два - заняться с собой сексом или подраться.
И тут ты со своим полотном, которое добавляет в эту историю больше веселья. Нет, еще немного - и я об этом рассказ напишу с такими темпами))
А вот это было бы здорово. :3 Ябпочитал.
Меня, кстати говоря, уже давно порядком пугает, насколько мы зависим от того, какие вещества выделяет или не выделяет мозг, например, и от прочих подобных вполне материальных вещей. Zweelee,
А ты задумайся вот над чем: быть может, никакого внутреннего мира вообще не существует. Может быть, все, что у нас есть - это материальные процессы, цель которых - лишь обеспечить слаженность работы организма, а цель существования организма - репликация и выживание генетического набора, а цель существования генетического набора - продукция определенных молекул, и в итоге все, чем мы живем, о чем думаем и за что боремся - это все лишь соревнование биохимических катализаторов в эффективности, и ничего более, и поменять ничего мы не можем, ведь каждое наше действие - следствие уже произошедших реакций и потому, с долей рандома, предопределено?
Вот.
А нам, биологам, с этим знанием еще волю к жизни где-то добывать.
Вообще интересно, насколько ИИ, например, могут быть способны к эмоциональным реакциям, если мы учтём, что у них нет всех этих гормональных колебаний, что у них деятельность мозга не формируется под влиянием химических веществ и так далее.
Веселимся дальше. Помимо внешних воздействий, у нас в принципе есть то, чего нет у ИИ. А точнее, как бы это ни звучало, у нас сигнал небинарен. Может, за счет одного медиатора, подаваться сильный. Может - слабый. Может от одного нейрона в одном синапсе быть тормозящий, может - активирующий.Может - групповой, может - одиночный.
Плюс нейроны растут и изменяются. Плюс многое зависит от их «обслуживания». Скорость передачи тоже регулируется в процессе.
А к гормонам мы еще и не подступали...
И главное - у нас уровень рандома за счет очень разнообразного хим. состава гораздо выше, чем у ИИ.
Так что...
А вот это было бы здорово. :3 Ябпочитал.
Задумалась. О_о Пока, если честно, сложно сказать, насколько мысль об этом заставляет опустить руки, потому что если материальные процессы - это всё, что у нас есть, тогда вроде как и париться не о чем. Ну то есть, одно дело - когда у нас есть и какой-то внутренний духовный мир, и материальное "железо", и это "железо" очень сильно на него влияет и задаёт рамки, из которых не вырвешься. И совсем другое, если весь внутренний духовный мир основан на "железе" и происходящих в нём процессах, и вовне их не происходит ничего в принципе. Почему-то оно кажется менее страшным, но я сейчас пока не могу сформулировать, почему именно. Может, потому что очень сложно осознать, что так называемая "воля" человека может быть сама по себе задана конкретными химическими, биологическими и физическими параметрами, а значит, "волей" собственно и не является и вообще не существует. О_о И то, что мы считаем, например, силой характера и способностью что-то изменить - задаётся примерно таким же сочетанием материальных параметров, как и любые другие черты, которые мы уже сейчас считаем от себя не зависящими.
Алсо, в голове сейчас возникают мысли на тему того, какие исследования и эксперименты могли бы подтвердить или опровергнуть теорию того, что вовне материального никаких ментальных процессов не происходит вообще. Но лично мне пока сложно представить что-то конкретное, потому что я не разбираюсь в теме. =\ А вот ты специалист и это примерно твоя сфера деятельности.
Помимо внешних воздействий, у нас в принципе есть то, чего нет у ИИ. А точнее, как бы это ни звучало, у нас сигнал небинарен.
Ага-а... Хм, интересно. О_о Насколько вообще возможно создать ИИ без воссоздания этих процессов, и насколько он будет разумным именно в нашем, человеческом понимании? Программы мы создаем уже сейчас, причём программы самообучающиеся, накапливающие опыт - но посчитаем мы их разумными, пожалуй, только когда они начнут проявлять эмоции и делать и на их основе ошибки. А без всего комплекса того, что ты перечислила, это было бы невозможно, подозреваю.
Вообще, для меня теперь сомнительным является, что есть вообще смысл производить полностью синтетический ИИ таким, чтобы он нам, людям, казался разумным. Это было бы слишком затратно и вообще не особо нужно. Зато-о, у меня есть вариант создания искусственного интеллекта на основе человеческого мозга, где генетически или каким-то другим образом бы усилили желаемые стороны - ну, там увеличили бы количество нейронных связей, улучшили бы как-то эффективность его работы каким-то другим способом, сбалансировали бы всю эту химию, уменьшили бы долю рандомности...
Другой вопрос, насколько бы всё это было этично.
Насколько вообще возможно создать ИИ без воссоздания этих процессов, и насколько он будет разумным именно в нашем, человеческом понимании?
Не знаю. Боюсь, в "человеческом" понимании он так и не станет до конца разумным. Зато, может, у него образуется разум другого типа. И вообще, то, что мы - самые разумные, мы думаем исходя из понимания только своего интеллекта, и то частичного. Может, это не так?
Кстати, интересный вопрос - а что, если ИИ уже как-то иначе, по-своему разумны, а мы этого не видим лишь потому, что анализируем человечность разума? Брр. Вот это хрень в итоге может получиться.
Зато-о, у меня есть вариант создания искусственного интеллекта на основе человеческого мозга, где генетически или каким-то другим образом бы усилили желаемые стороны - ну, там увеличили бы количество нейронных связей, улучшили бы как-то эффективность его работы каким-то другим способом, сбалансировали бы всю эту химию, уменьшили бы долю рандомности...
Смело. Но, боюсь, нейрология пока не настолько развита, чтобы так действовать. Все-таки многие процессы балансируют на грани между критическим недобором и перебором чего-то, и опасность вылезти за этот диапазон очень велика.
Другой вопрос, насколько бы всё это было этично.
Абсолютно неэтично.)) Хотя вопрос спорный - возможно, неэтичность по отношению к одному человеку спасет многих? Но, чтобы решать, где грань между вынужденной необходимостью и зверством, нужно быть... не знаю... сверхчеловеком каким-нибудь. Причем не по личному ощущению, а объективно.
Во-во. =\ И то, что мы считаем проявлениями "разумности" и "интеллекта" вообще по сути именно к разуму и интеллекту прямого отношения не имеет. И оценивая чужую разумность, мы на самом деле оцениваем чужую человечность. =\
Смело. Но, боюсь, нейрология пока не настолько развита, чтобы так действовать. Все-таки многие процессы балансируют на грани между критическим недобором и перебором чего-то, и опасность вылезти за этот диапазон очень велика.
Ну, на то и нужна фантастика, чтобы придумывать слишком смелые для теперешнего развития науки решения и смотреть в будущее, когда контролировать подобные параметры, может быть, станет возможно.
Хотя вопрос спорный - возможно, неэтичность по отношению к одному человеку спасет многих? Но, чтобы решать, где грань между вынужденной необходимостью и зверством, нужно быть... не знаю... сверхчеловеком каким-нибудь. Причем не по личному ощущению, а объективно.
Ололо, по сути, весь SAYER как раз именно об этом. :3 Но вообще это не первое и не последнее фантастическое произведение, где вводится искин в качестве такого "сверхчеловека", который способен просчитывать варианты и решать, где пролегает эта грань, и какие жертвы можно принести для большего блага. Помню, я читала какой-то рассказ, названия которого сейчас не помню, где сверхкомпьютер просчитывал вероятность совершения тем или иным человеком преступления, и если она достигала критической величины, человек устранялся превентивно, чтобы избежать ещё большей катастрофы. О_о
Во-во. =\ И то, что мы считаем проявлениями "разумности" и "интеллекта" вообще по сути именно к разуму и интеллекту прямого отношения не имеет. И оценивая чужую разумность, мы на самом деле оцениваем чужую человечность. =\
Офигенный, кстати, момент, который надо продумать ПРЕЖДЕ, чем вступать в какой-либо контакт с нечеловеческими существами. Даже с очень-очень гуманоидными.
Ололо, по сути, весь SAYER как раз именно об этом. :3 Но вообще это не первое и не последнее фантастическое произведение, где вводится искин в качестве такого "сверхчеловека", который способен просчитывать варианты и решать, где пролегает эта грань, и какие жертвы можно принести для большего блага. Помню, я читала какой-то рассказ, названия которого сейчас не помню, где сверхкомпьютер просчитывал вероятность совершения тем или иным человеком преступления, и если она достигала критической величины, человек устранялся превентивно, чтобы избежать ещё большей катастрофы. О_о
МНЕ НУЖНЫ СКРИПТЫЫЫЫЫЫЫ
Вообще, если смешать это с вышесказанным об альтернативном разуме, то еще вопрос, можно ли это решать искину. И кому вообще можно.
З.Ы. Кто-кто учит меня писать комменты-полотнища?
И вот написано в фантастике вроде и до фига насчёт этого, но всё, что я встречала - как-то не совсем то. О_о Есть, правда, "Ложная слепота" Питера Уоттса, которая очень тесно затрагивает эту тему, причём на уровне. Но я её читала давно, когда ни черта не соображала в теме. Надо перечитывать обязательно.
Смотри, из википедии:
"В романе поднимаются вопросы работы мозга, восприятия им информации, разницы между интеллектом и разумом. Название романа взято от неврологического заболевания «ложная слепота», при котором человек может смотреть, но не видеть отдельные предметы.
Интересно, что Уоттс приводит в конце книги список использованной литературы: 144 книги и журнала, такие как Science, Nature, Scientific American, с подробными объяснениями, откуда взялись те или иные идеи. Однако одну книгу Уоттс упоминает особо, это «Быть никем» Томаса Метцингера."
Я погуглила Метцингера, и нашла вот что:
"Томас Метцингер (нем. Thomas Metzinger, род. 12 марта 1958 во Франкфурте-на-Майне) — немецкий философ и профессор теоретической философии в университете города Майнц. Основными областями его исследований являются философия сознания, методология нейронаук и нейроэтика.
...
С помощью философских методов и методов когнитологии Метцингер развил теорию «Я-модели», объясняющую целостность и рефлексивность нашего сознания. Частью этой программы является репрезентативная теория субъективности. Философ уже много лет занимается междисциплинарным развитием аналитической философии сознания. Метцингер считается одним из тех философов, которые особенно активно работают с нейробиологами и когнитологами. Например, он увлеченно занимается философской интерпретацией нейронных взаимодействий в сознании. Другая область интересов Метцингера — прикладная этика. В этой сфере он пытается применить результаты антропологических исследований и философии сознания к теоретическим дебатам о морали. Так, под его руководством возник двуязычный портал по нейроэтике, содержащий специализированную библиографию. Метцингер является так же координатором исследовательской группы, которая занимается так называемым когнитивным ретранслятором (Cognitive Enhancers)."
А диссертация, которую он защитил, называлась "Проблема души - тело". О_о
Если это не подходит под тему, которую мы тут обсуждаем, то я не знаю, что ещё подходит.
МНЕ НУЖНЫ СКРИПТЫЫЫЫЫЫЫ
Хм. О_о Знаешь что, я наверное попробую после выходных написать создателю подкаста. Выражу восхищение, и заодно спрошу, мог бы он выложить скрипты или нет. О_о
Вообще, если смешать это с вышесказанным об альтернативном разуме, то еще вопрос, можно ли это решать искину. И кому вообще можно.
Я подозреваю, даже если ИИ будет работать идеально и вот реально на человеческое благо, люди всё равно останутся недовольны. И что предпочтут жить хуже и неэффективнее, но так, чтобы их жизни не контролировались свыше.
Разве что уж вообще пойти ещё дальше и учесть это в расчётах. И, например, давать зазор на разнообразные бунты или мутить систему так, чтобы она замечалась по минимуму и поэтому не вызывала отторжения.
З.Ы. Кто-кто учит меня писать комменты-полотнища?
А то ты прямо до меня полотнищ не писала.
Если это не подходит под тему, которую мы тут обсуждаем, то я не знаю, что ещё подходит.
Почитааааем)
Хм. О_о Знаешь что, я наверное попробую после выходных написать создателю подкаста. Выражу восхищение, и заодно спрошу, мог бы он выложить скрипты или нет. О_о
Я еще не сильно борзая, смотрю)))
А то ты прямо до меня полотнищ не писала.
А вот не писала. Обходилась максимум таким комментом, как сейчас.
Интернет вообще сильно стирает границы в этом плане, чо.
А вот не писала. Обходилась максимум таким комментом, как сейчас.
Чорд, выходит, я до такой степени навязываю свой режим общения, и сама этого даже не замечаю? >_<
Интернет вообще сильно стирает границы в этом плане, чо.
По себе знаю, в натуре, чо.
Чорд, выходит, я до такой степени навязываю свой режим общения, и сама этого даже не замечаю? >_<
Свой режим общения, а еще свой сленг, свою манеру съезжать на инглиш в процессе общения, свои смайлы, свои интересы и свои взгляды на некоторые позиции. Ксо. Я вот только сейчас посмотрела на то, что я тебе отвечаю, и поняла, что энное время назад высказалась бы совсем по-другому...
Так что влияние нужно оценивать скорее по тому, изменился ли твой образ общения с другими людьми. :3
Ну а насчёт взглядов и интересов - это взаимовыгодный обмен, а взаимовыгодный обмен - это здорово. x)
Так что влияние нужно оценивать скорее по тому, изменился ли твой образ общения с другими людьми. :3
Дык в общении с другими людьми это тоже заметно. Но, думаю, тут уже моя проблема - я же впитываю, как губка. А с тобой общаюсь много, вот и получается, что переползают на меня уже не отдельные моменты в общении, а крупные его элементы.
лингвистическими таксидермистамиблюстителями чистоты языка они считают тебя заведомо ниже и чешут об тебя своё ЧСВ (людям приятно, а мне не жалкоZweelee, просто в копилку: в небольшой промежуток времени мы можем воспринять не более 7-9 объектов одновременно (в среднем). Все, что больше этого количества - уже требует целенаправленного подсчета и воспринимается как "множество", "группа" и проч.
Забавно, но есть эмпирический момент в психологии групп. Оптимальный размер группы - это 7 плюс-минус 2 человека.
Именно это наибольшее количество людей, которые, грубо говоря, при общем обсуждении смогут учесть мнение каждого, например. Группа большей численности неизбежно распадается на "подгруппы", каждая из которых сначала выносит решение "внутри".
Что-то есть в схожести этих моментов.
Забавно, но есть эмпирический момент в психологии групп. Оптимальный размер группы - это 7 плюс-минус 2 человека.
Ага-а. О_о Думаю, действительно между тем и этим есть связь, причём достаточно тесная.
Интересно, где ещё это правило семи плюс-минус два проявляется? Наверняка ведь оно получится достаточно распространённым, раз уж это универсальный закон человеческого восприятия.
Zweelee, я недостаточно энциклопедист, чтобы еще найти примеры. Мне это еще напоминает о слове several. Еще не "many", но больше 4-5.
Надо будет у шарящих в искусстве знакомых поспрашивать, кстати. :3 Скорее всего, оно отразится где-нибудь в области композиции, например, идёт ли речь о музыкальной, о художественной или литературной.
Я, кстати, зачем-то девять (7+2) разделила на пять (7-2), чтобы посмотреть, вдруг "золотое сечение" получится. Не получилось.
В композиции - аж бегом проявляется в ритмических рядах однотипных объектов типа ступеней, окон, колонн и всего такого.
Видимо, не делится из-за того только, что два землекопа и две трети нельзя )
Алсо, может пригодится, если вдруг где-то попадётся исключение из правил. Думаешь, что вот закономерно, логично и естественно, а потом бац - и выяснится, что у какого-то народа такого слова нет, например. Или аналогичное значит в среднем другое количество. И там уже совсем интересно будет поковыряться и разобраться, почему так сложилось. x)
Вообще скилл быстрой оценки количества - он непостоянен. Его можно тренировать, и серьезно.
Так... откопала субитизацию. Ничего себе. Ее связывают немного с математическими способностями еще.
12-15 бывает, конечно. Но редко. Нам, как строителям, давали "бери не выше 9-ти, не промахнешься".
Внимение и объемы кратковременной памяти, если верно понимаю?
Не знаю конкретики,если честно. Но это и есть параметр, по которым в какой-то момент дети перерастают обезьяну.
Внимение и объемы кратковременной памяти, если верно понимаю?
Немного не уловила, что вы тут сказали
Ну, такие эксперименты, наверное, уже сто раз проводились и даже привели к каким-то выводам :3
Александра Л., в смысле, коррелирует ли это с объемами кратковременной памяти, есть ли взаимосвязь?
Раз уж биолог в треде, то грех не узнать.
Если по определению - количество предметов, с которыми человек может взаимодействовать одновременно. Т.е., работать с системой из семи-девяти предметов.
Классический пример - те же 2-3 у обезьян. Есть песчаный остров с орехами и обезьянами. Для добычи еды - система из двух камней и ореха. Обезьяна с ОКРП 3 берет орех, кладет на камень, придерживая его там, бьет другим камнем. Обезьяна с ОКРП 2 видит все три объекта, разделяет их в уме, осознает, но либо бьет по ореху на камне лапой, либо вбивает орех камнем в песок, либо стучит камнем по камню. Она просто не может уместить в мозгу третий объект взаимодействия.
Насколько я знаю, то за это немного другие области уже отвечают. Но, возможно, имеется связь в том смысле, что если какой-то объем уже не влазит в пределы восприятия, то он начинает нарезаться сознанием на составные части. Кои по количеству могут и превысить ОКРП.