Парадокс Ньюкома и Путь выигрывания

Eliezer Yudkowsky, “Newcomb's Problem and Regret of Rationality”, public translation into Russian from English More about this translation.

See also 147 similar translations

Translate into another language.

Participants

Quilfe 3118 points
alekseykarnachev 174 points
ogmennesket 173 points
Join Translated.by to translate! If you already have a Translated.by account, please sign in.
If you do not want to register an account, you can sign in with OpenID.
Pages: previous Ctrl next
1 2 3 4 5 6 7 8

There is a _large_ literature on the topic of Newcomblike problems - especially if you consider the Prisoner's Dilemma as a special case, which it is generally held to be. "Paradoxes of Rationality and Cooperation" is an edited volume that includes Newcomb's original essay. For those who read only online material, [a href="http://w3.ub.uni-konstanz.de/v13/volltexte/2000/524//pdf/ledwig.pdf"]this PhD thesis[/a] summarizes the major standard positions.

О парадоксе Ньюкома написаны горы литературы, особенно если считать дилемму заключенного ее частным случаем, каковым она, как правило, является. Например, "Парадоксы рациональности и кооперации" ("Paradoxes of Rationality and Cooperation") — издание, в которое входит оригинальная статья Ньюкома.

History of edits (Latest: Quilfe 4 years, 9 months ago) §

— ссылка не работает Quilfe

I'm not going to go into the whole literature, but the dominant consensus in modern decision theory is that one should two-box, and Omega is just rewarding agents with irrational dispositions. This dominant view goes by the name of "causal decision theory".

Я сейчас не буду глубоко погружаться в литературу, но замечу, что преобладающее мнение в современной теории принятия решений гласит, что следует выбрать оба ящика, а Омега просто вознаграждает агентов с нерациональными установками. Эта доминирующая точка зрения берет свое начало из причинной теории принятия решений _(в русскоязычных текстах также иногда встречается наименование "каузальная теория принятия решений" — прим. перев.)_

History of edits (Latest: Quilfe 4 years, 9 months ago) §

As you know, the primary reason I'm blogging is that I am an incredibly slow writer when I try to work in any other format. So I'm not going to try to present my own analysis here. Way too long a story, even by my standards.

Как вам известно, основная причина того, что я пишу в блог, — моя невероятно низкая скорость, если я пытаюсь писать в каком-либо другом формате. Так что я не собираюсь выкладывать здесь мой собственный разбор проблемы Ньюкома. Это была бы слишком долгая история, даже по моим стандартам.

History of edits (Latest: Quilfe 4 years, 10 months ago) §

But it is agreed even among causal decision theorists that if you have the power to precommit yourself to take one box, in Newcomb's Problem, then you should do so. If you can precommit yourself before Omega examines you; then you are directly causing box B to be filled.

Но даже адепты причинной теории согласны, что если у вас есть силы заранее настроить себя на то, чтобы взять один ящик, то нужно сделать это. Если вы можете "настроиться" до того, как Омега проверит вас, то этим самым вы непосредственно обусловливаете то, что ящик Б не будет пустым.

History of edits (Latest: Quilfe 4 years, 9 months ago) §

Now in my field - which, in case you have forgotten, is self-modifying AI - this works out to saying that if you build an AI that two-boxes on Newcomb's Problem, it will self-modify to one-box on Newcomb's Problem, if the AI considers in advance that it might face such a situation. Agents with free access to their own source code have access to a cheap method of precommitment.

В моей области деятельности (в построении самоулучшающегося искусственного интеллекта, если кто забыл) это выражается так: если вы построите ИИ, берущий оба ящика в проблеме Ньюкома, то он изменит себя так, чтобы брать один ящик, если сможет заранее предположить, что может столкнуться с такой ситуацией. Агенты, имеющие свободный доступ к своему исходному коду, способны легко настраивать себя заранее.

History of edits (Latest: Quilfe 4 years, 10 months ago) §

What if you expect that you might, in general, face a Newcomblike problem, without knowing the exact form of the problem? Then you would have to modify yourself into a sort of agent whose disposition was such that it would generally receive high rewards on Newcomblike problems.

Что, если вы ожидаете, что можете встретиться с этой задачей, но не знаете точную формулировку? Тогда вам необходимо изменить себя, сделав свои установки такими, какие в общем случае обеспечивают высокий выигрыш в подобных задачах.

History of edits (Latest: Quilfe 4 years, 9 months ago) §

But what does an agent with a disposition generally-well-suited to Newcomblike problems look like? Can this be formally specified?

Но в чем же заключаются установки, нацеленные на хорошее решение задач вроде этой? Можно ли описать их формально?

History of edits (Latest: Quilfe 4 years, 9 months ago) §
Pages: previous Ctrl next
1 2 3 4 5 6 7 8