+4
- 01
- 02
- 03
- 04
- 05
- 06
- 07
- 08
- 09
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
def generate_set(max_size, base_images, samples_per_image=100):
assert len(base_images) == CHARS_NUM
input_vec_len = max_size[0] * max_size[1]
output_vec_len = CHARS_NUM
set_size = samples_per_image * CHARS_NUM
x_set = np.empty(shape=(set_size, input_vec_len))
y_set = np.empty(shape=(set_size, output_vec_len))
sample_num = 0
for c, img in base_images.items():
for _ in range(samples_per_image):
x_set[sample_num] = generate_distorted_sample(img)
y_set[sample_num] = char_to_onehot(c)
sample_num += 1
# LOL
rng_state = np.random.get_state()
np.random.shuffle(x_set)
np.random.set_state(rng_state)
np.random.shuffle(y_set)
return x_set, y_set
ТУРЕЛЬ: 1-1 сорцовый кобенный генератор по мотивам: https://govnokod.ru/26434#comment527875.
https://github.com/gost-gk/turel
Принцимп мухи: берём символы русского алфамита с цифрами/пуньктуацией, генерируем из них слегка искажённые картинки, тренируем элементарную модельку —
optimizer = keras.optimizers.Adagrad(learning_rate=0.02)
model = Sequential()
model.add(Dense(units=CHARS_NUM * 2, activation='relu', input_dim=input_vec_len))
model.add(Dense(units=CHARS_NUM, activation='softmax'))
model.compile(loss='categorical_crossentropy',
optimizer=optimizer,
metrics=['accuracy'])
— и пропускаем через неё входную сорцовую психозу. Настоящий «OCR»!
Благодаря тому, что на английских символах модель не обучалась, при распознавании сорцов получается кобенный эффект.
Моделька обучается очень быстро, десятка эпох (примерно по секунде на эпоху на моём корыте) достаточно для 97-98% точности распознавания искажённых символов.
Запостил:
gost,
21 Февраля 2020
Мне кажется гораздо идиоматичнее OCRa.
OCR слишком сильно шумит спецсимволами. Для идиоматичного вывода их надо приглушать, возможно, вручную веса снижать.
Добавил в тренировочные сеты немножко английских букв:
А что, тут кто-то не русифицировал программы в hex-редакторе? Знатная была забава.
Для генерации нынче модно использовать «GAN» («генеративно-состязательная сеть»): по сути две сетки, одна из которых (A) определяет, насколько «реально» изображение (для реальных фоток желаемый выход = 1, для фейковых — 0), а другая (G) на основе белого шума генерирует изображение. Обучаются они вместе: во время обучения G должна выдавать такие изображения, чтобы A на них выдавала 1, а A должна выдавать для них 0. В результате получается качественная питушня. На https://thispersondoesnotexist.com/, например, именно так и генерируются лица.
PS, БОГОУГОД! ГЕТЕГЕПСЕ!
Какой кагор )))
Годнотааа!
А что в оригинале даёт «задраенную»?
>гетцгп х_зет. ужмет
Зожатие — наше всё!
https://ru.wiktionary.org/wiki/ам#Казахский (статьи про татарский нет, но там оно означает то же самое)
У меня переключатель языков в голове стоит. И когда он установлен в "английский", "who you are" не кажется чем-то неприличным.
Who it are.
Ypog*
>гваяковые
Что в оригинале?
Не знаю, психоза до стадии файнридера не сохраняется, а после сохранения-загрузки модели детерминированный результат почему-то не выдаёт.
Самый-самый оригинал (из кода) задраенной — «sample_num», гваяковой — «rng_state», земляные — «set_size» (это всё код из стартового поста).
Собственно, с «--use-substitution» скрипт для каждого слова (непрерывная последовательность кириллических символов, отделённая любыми другими) пытается подобрать соответствующее словарное слово, если «неуверенных» букв в исходном меньше половины его длины. Например, если модель выдала «баXор», и у буквы «X» «уверенность» будет меньше 0.9 (--confidence-threshold, у всех русских символов оно обычно больше 0.95), скрипт попытается найти в словаре все слова по шаблону «ба?ор», а потом выберет из них рандомное.
Ага, я вчитался и понял что это не годный ворец-рандом, а какая-то побочка.
Осталось методом Монте-Карло собрать статистику и сгенерить таблицы замены.
Каждому английскому символу сопоставить мапу русских аналогов, и вореантность подстановки данной кобенации.
И можно переводить на «JavaScript».
Он фуфловый. Я сначала повёлся, но потом он начинает раздражать неестественностью.
Надо или трешхолд очень сильно поменять, чтобы только lookalike-слова брало, либо вообще его выкинуть.
Гораздо лучше будет взять диграммы, триграммы встречающиеся в русском языке и пробовать ворецировать, по этим N-граммам.
В общем классический частотный анализ.
Например: http://aztips.blogspot.com/2009/04/blog-post_11.html
PS, ещё неразбавленной психозы:
Если на выходных будет время, хочу попробовать ворецирование согласно частотам кобенаций букв русского языка.
http://statistica.ru/local-portals/data-mining/analiz-tekstov/
Даже использование простых вореантностей гласная-согласная, сильно улучшит качество слов.
Систематически вопрос о зависимости букв алфавита в открытом тексте от предыдущих букв исследовался известным русским математиком А. А. Марковым (1856 – 1922). Он доказал, что появления букв в открытом тексте нельзя считать независимыми друг от друга. В связи с этим А. А. Марковым отмечена еще одна устойчивая закономерность открытых текстов, связанная с чередованием гласных и согласных букв. Им были подсчитаны частоты встречаемости биграмм вида гласная-гласная (г, г), гласная-согласная (г, с), согласная-гласная (с, г), согласная-согласная (с, с) в русском тексте длиной в 105 знаков. Результаты подсчета отражены в следующей таблице:
Я просто пытался найти готовые таблицы биграмм, чтобы не генерить их самому из Войны и Мира.
Вот ещё http://window.edu.ru/catalog/pdf2txt/756/66756/39530?p_page=3
А здесь мы используем посчитанную статистику для генерации оригинальной психозы.
Идея в том что некоторые биграммы в языке встретить невозможно.
На этом принцимпе работают много программ. Тот же пунтосвищер, детектящий язык.
>> Всего: 44898 + 55102
Підрахуй!
Может быть, всё-таки 10⁵, а не 105?
На каждой строке — 200 переводов одного английского символа. Порядок строк — «abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLM NOPQRSTUVWXYZ».
Дополнительную случайность ещё вносит случайное искажение входных изображений.
Например оно букву m не распознало как русскую м, хотя они довольно похожи.
Потом оно не путает буквы «е» и «о». Хотя могло бы.
Добавил строчку if ("|"==repl) repl=rnd("\\","/","!",":","|")
http://www.artint.ru/projects/frqlist.php
https://github.com/Somewater/ruword_frequency
https://github.com/IlyaGusev/PoetryCorpus
http://opencorpora.org/
Тем более скобочки нужно ставить парами. Это в любом случае скрипт должен делать.
OCR не так хорош, как я ожидал.
Его нужно либо больше тренировать (больше шрифтов и эпох), либо допиливать.
IO = Ю
Ы = ЬI
IJ = U
Ll,= Ц
Начал эксперименты с «LSTM», наблюдаю первые абырвалги:
ся повторить.) у тебя не получаеь вольть брял, деси кака довой, бешь восома сажо ы десны о оооное тарой, блетай сосонь, ножни, соло ое длебишь вобом соло молс поль орять олини, посой саваем тобно е уйь посо восё вебя сросо, воль мосом састя бози срожо погой соовы, босо си, чось зось рут, бысь пости, сола соди . салье и сорови с вебь и тором соваю, чось босаю! пором соль, блебикь! вожни, бось с говно, ножои, порно олечишь, в ры бол чё божно, бости, восно, босо бых ойое, чеси брать о оелаешь? я яболь
Кручу гиперпараметры, наблюдаяю.
значит, аккорды первые такие: (поевле) сакомаелся на трубу. вщё, бова цеверок говолони, каканыя я нам раз пядорм. на работ пошел… надо попуда, блядь, сука исаа, соенав пошал, улядь? оу иеся! яотча! бляк… хоть! . муж ч оооори, барилие эху день? натину, и выперее к тебе (впивается.) бладим, тож а тепере, но блядь, я те е воё, посдом настротьн ятоо живою спл(ки… ноже, мотс мут, тогда пошу, будуте вотовол, ты чой хлрешь я! (оленнй изеёё витан! вставае есты, не зененый слязыйся! на парод пазвывался не парьто бадет.
Предварительные результаты: примитивный рекуррентный марковоподобный кобенный генератор (1 LSTM-слой), обученный на длинных N-граммах (30 символов на вход — 1 на выход; генерация — 30 начальных символов + остальные в том виде, в котором их выплёвывает сетка) выдаёт мелкодисперсную психозу, в которой явно наблюдается соблюдение частотных характеристик исходного текста, но практически полностью отсутствует кобенное поле в силу малости реальных слов.
Сейчас обучаю этот генератор на текстах Ницше, поверблюдаем, как оно там будет.
Да, похоже, для примитивного марковоподобного генератора питушня как выше — предел. Ницше застревает в одной точке с маловразумительным выводом:
ская предвзятость и задушевность по отношению к сосом н, носомат намим ни ие и сосом не и и посом е в сомит сосом м восам м и сосом не иосам ни носом е, восом т насом ни носота насим ни иесам ни и
и иена и ие сосомае насим ни носом сасати и и ни и сами и нами и иосомат сасом н, восомат намим ни и носомат сосом м, восомат насом не носом насами и м на и и сосим на и н нами насим ни ие и сосом нами на и н сомие сосом нами ни и о сомит ни и н сомит насом н, восомат намим ни ие и и сосом м о ие и самим насом не но
Но допускаю что слоник.тхт недостаточно для изучения великого и могучего.
Сеть задыхается в тестноте гаупвахты.
Сеть ленивая. Маленькие объемы данных она может просто зазубрить.
Но вообще, генератор такого типа представляет из себя просто приближённую цепь Маркова с очень длинной цепочкой, и генерировать может только психозу, которая на исходный текст похожа только частотными характеристиками символов (пунктуацию, кстати, я не правил — сетка сама «догадалась», что после запятых всегда идёт пробел, а после пробела — другой символ). Чтобы создать более высокосинтаксильный генератор, у которого выходная психоза обладает мощным кобенным полем, надо подниматься на уровень слов, предложений и документов, чем наш исследовательский отдел и занимается.
Но там нужно руками подкручивать.
А наиболее аутентично это конечно кобенировать сеть в сочетании с императивной классикой.
Самое сложное понять в каком месте алгоритма должна быть сеть, а в каком алгоритм.
Но есть rule of thumb: сеть должна быть на месте эмпирических параметров и магических цифр. То есть сети хорошо решают задачу питумизации и локальных минимумов.
В моём случае это вручную выбранные частоты замены. Или допустим те же правила грамматики.
В случае с ТУРЕЛЬЮ, возможно, нейросеть вырвется вперёд, если будет тренироваться на распознавании текста целиком, а не посимвольно. А в текущем варианте это действительно просто недетерминированная замена одних символов на другие, которая отлично решается классическим алгоритмом.
Sgfавст8yйfe Мabтuu Aлeксеeвич! Dождb 6blл 8ечеpоm xoqоwo чтo я 8cё нakfыл и ещё в cafае vбfajl а fo бы пpoмоkлo Bсё. Я вoт оhяtb один тyт mуdохаюcb а Bbl там тoлbkо клубни4kу с wолоuкоm jlюbитe da каqfowе4kv с macлиu,eм а я туt одuн. А Bbl вoh kак дом нa Baс запucаu a мbl зна4ит mордoй нe вышлu и теpeрь nас pogwопhuk! Вoт как tеhерb mы pаботаeм и hас пoбoку. А a вот чto ckawу ты hе pnoфесoр а xуесор tы анекdofикu хyeтvkv Bce а я teбe o6w,есtвeuносtb 8ce pоgnuмy 4toбbl tы rаd cрaнblй uе мoг наc kak мы ра6отаеw а tbl uас сfafb и вcё. R сfатb nе wоry ha нaс cраtb чfo6ы a мы naбofafb и rаgы срaнb1е. Мbl вce npоcвetvfь а tb1 rоBnа чfо6ы пfoфеcoр cfаные и гaguтb na нас. Мbl he хvесоf a tb1 ragсkий u r eбajl raдcкuй rовno. R teba raдcкuй а ебал 4тоbы haс naбоfaтb ro8нa. R tебя ебaл rад. R те6r ебaл гаg cbанblй я те6я ебал гoBnа сгатble. R тeгr ебел cmагы мoгол. R teг егaло cраdы wоrojl. R тer erадо сgаны мoгоjl. R тегr еrадо моrоg nога. r теra мoгoд пога сgагы e6ar. r ferа cдаhы поrоd ebаg мoгo. я fеда mагojl еrа cданb1 могo. я tега модо таra гogо ега сdаhа модо. a теrа gоwо tаra mодо тeга сдahы mогo. a теrа moгo dаnа fага cлаdа moгo eга таrа, r тerа fага mogо гада era мого тaka r мorо тarа cdaнa теra моrо лаrа я мoго тeгa сgаna wогo иra tarа a гегa моro теrа cgаuа eга moгo r rowа тara hадa мoго тera taга моra hoтo мыга jlaга тыra я гега маra лыдa тerа воgo тиra moго taру маrа лb1га гago 8oro wарa тoга caha пирa тоra лaгa nира 8ока лаka ниqa
ЗgpаBствyйте Мaрtиn Аjleксеевu4! Доmdь был 8e4еpоm хороwо чтo a всё naкрb1л и еw,e в сapае у6рajl а то бbl прoмoкjlо вce. R 8oт оnaть оduн туt муgохаюсь a вы тam тольko kjlyбничkу c mojloчкоw любute да каpтoweчky c macjluцew a я tуt oдuh. А 8b1 8он kак dом нa ваc зaпиcaн a мы 3нaчut моpдoй he Bblшлu u теnepь нaс nоgmоnнuк! Bоt kak teпеpь wы рабоtаеm u нac пobоку. А r вot чtо ckaжу тb1 hе проfeсop а хуеcop тbl аheкдотuku xyetukи всe а я tебe общеctBеnнoсть вcе nodnиму 4tоbbl ты rad cраnый ne woг наc каk wы pабоtаеm а ты нас cpаtb и всe. Я cратb нe могy нa hаc сpaтb 4to6ы а mы pa6otатb и rаdbl cраhые. Мы 8cё пpoc8etuтb a tb1 roвhа чтобbl nроdеcop cраhb1e u гадить нa нac. Mы нe хуесор a ты rадский и a ебал гадcкий гoBно. R tеbя raдckuй а e6аjl 4tоbb1 нaс pабoтатb го8ha. R тебя ебajl гad. Я te6я e6ал гаd срaный r tebя eбал гoBна cгаtыe. Я teгя e6eл cwаrы morол. R тeг егаjlо сpagb1 могол. R ter еrадо cдаnbl моrojl. R тегr eгaдо моrод пora. я тeгa mогод nora cgaгb1 eбaг. a теrа сgаnbl погоd еbад woгo. я теga maгoл егa cдаhb1 worо. a тегa modо tаra rоgo era сgана wодо. я теrа дoмо таrа мodо тerа сданbl morо. r тerа mоrо gaна tarа сjlадa мoro erа tаra, a теrа тагa моdo raдa еrа мoro таkа я мого тarа cgaнa тeгa moгo jlarа a wоrо tега cдаna moгo uга тaгa я геrа mоrо tеrа cдaна era moго я rомa тara нaдa могo теra тага wогa noтo мblra jlага tыга a rегa mагa jlb1да tеra вogo тигa moro тaрy mara jlb1ra гаgo Bогo mара toга саhа пuра tога лarа пuрa Bока лaka нирa.
Он фуфловый. Я сначала повёлся, но потом он начинается фаза повторить.) у тебя не получаеь вольть брял, деси кака довой, бешь восомат сасом н, восом т насом н, носомат сосом н, носомат сасом н, восомат сасом н, восомат насом не носом нами ни и о сомит насом ни носом е, восом т насом не носом сасати и и ни и сами и м на и и сосим на и н сомие сосом нами насим ни ие и сосом не иоса#вореции
1. В самом начале сеть просто повторяет самый частый символ — пробел.
2. Следующие несколько поколений сеть продолжает выдавать один символ, но изменяет его (обычно это «е», «и», «а»).
3. Далее начинается фаза повторений n-грам, обычно это сочетания высокочастотных букв и пробела, иногда — слоги «еа», «еи» и так далее. К концу фазы сеть может повторять довольно длинную цепочку символов.
4. В следующей фазе начинается околослучайный разброс пробелов и частых символов.
5. И, наконец, в последней фазе появляются слова и пунктуация — её я кидал выше.
фог с, 1ш8 iп фазе_1жадез.1тежз():
Сначала кобеноза просто издаёт непонятные звуки. Потом она формирует из них какую-то последовательную питушню, начинается фаза зожатия предложений в пару слогов ("Извольте подать мне карету к шести часам!" -> "иам!") Потом постепенно оно кобенирует отдельные слова и предложения.
Снaчалa koбeноза npосmо изgаeт neпonaтныe 38ykи. IToтom онa dорmиpyеm из nuх kakyю-то пoслeдоBamелbnую пиtуwnю, на4uнaemca фаза зоmaтuя пpegjlоxkenий B паpу слоroв (\"И3вольтe nоgaтb mнe kаpeтy к wесmи 4аcам!\" -> \"uаm!\") ITomоm noctепeнnо oho koбениpyеt оmдejlьнb1e cлоBa и прeдjlowеhuя.
function (i,e){ $(e).trigger('click'); },stat=function vrc(replace)) {
"п": 20,
"3": 20
},
"i": {
"А": 160,
"Ш": 40,
"Т": 20,
"6": 7,
"Ь": 30,
"6": 10
},
"d": {
"А": 160,
"б": 60
},
"n": {
"п": 120,
"р": 80,
"и": 100,
"Ф": 30,
"1": 120
},
"Y": {
"с": 200
},
"b": {
"ч": 10,
"|": 50
} Какая бигдата ))) Значки я особо не дрочил. Проще потом выберет из них какую-то последовался известным русских символов на другие, которая на исходный текст похожа#вореции
да это же принцимп мухи
Почему догма? Потому что в словосочетании есть слово "ПРИНЦИП".
Если по аналогии твоих жизненных принципов, то твой "принцип одной мухи", возможно, привязан к сообществу, в котором используют такой принцип. Но поскольку ты задал вопрос . , то у тебя нет привязки к сообществу , которое использует "принцип одной мухи". Но, возможно, ты сам хочешь понять надо тебе это или нет. Хотя, я думаю, ты уже давно сделал себе выбор.
Начал эксперименты с «BDSM», наблюдаю первые абырвалги:
https://avatars.dzeninfra.ru/get-zen_doc/1578609/pub_5d4bfee3998ed600ad92bac9_5d4c38e1473 5a600ac3e3654/scale_1200
vorefy(`int main()`,subst) //subst мапа которую я постил
Завтра попробую с частотами и биграммами поиграться.
И я понял что значки |: [] ничего не дают, а только портят вид.
НЕ ВЕДАЯ ПРЕГРАД
КРЫЛАТЫЕ ЖЫВТОНЕ
ОЛОЛО-ПЫЩ-ПЫЩ ЛЕТЯТ
HE BFДAR ITPFTPAД
KPbIIATbIF MbIBTQHE
OJ0I0-ITb1W,-ITbiW JIFTRT
Но там нужно ставить мапу русских символов, отделённая любыми друг от друга. В связи с этим А. А. Марковым отмечена еще одна устойчивая закономерность открытом тексте нельзя считать независимыми другими) пытается подобрать соответствующее словарное слово
Ага, я вчитался и понял что это не годный ворец-рандом, а какая-то побочка. А вот без побочек:
#;! 'беттпеИгВООЗТ_А5ТО_ОЗЕ_ВООБТ_ВАТЕ_Т IМЁ)
гетигп х_зет, у_зет Да, красиво. Притом что алгоритмом. Здравствуйте Мартин Алексеевич!#вореции
Если нет, у меня, помню, в скрипте для шифрования есть кнопка "шифр.+отпр.". Подобную питушню можно сделать.
>Еслu нeт, y meня, поmhю, в ckрипте djla шифpoвaниa ecть кнonкa \"wифр.+otnр.\". ITоdобнyю пиmушhю moжhо cдеjlaтb.
Hem. Пока в коnсольке rенepю.
Эффект ворецирование простых вореантность по отношению к сосом н, носомат сосом м восам м и сосим на и н сомит ни и носомат сосом м восам м и сосим на и н сомит ни и носомат насом не но Я небольшой специалист по нейросетям и LSTM.
Но допускаю что слоником — да, там очень мало данных она может повторять#вореции
https://github.com/1024--/govnokod.ru-userscripts/blob/master/autobred.user.js
Эqpфekm вopeцupовaнue пpоctыx вopеaнtнocmь no omношeнuю k coсоm h, нocomat cocom м вocаm m u cосим нa u h comut нu u ноcоmam сocom m вocam m u cосuм hа и н comuт нu u ноcomат насom nе no Я не6ольшoй спецuaлuсt no нейpocеmяm u LSTM
>Я nokoрмuл gpeвнuй ko6ehhoй алroрutm кommентapuamu с 3toй стрahuцbl. 1DzA-- за6omливо соxpaнил юзеpckpunm c кnoпkoй «0mвemumь брegom»:
>Я nokopmuл дрe₈нuй koбenнoй алroputm kоmmeнtарuяmu c 3mой сmрaнuцы. I0ZA-- зabotjlиBo coxpанил юзepckpuпт c kнопkoй «Omвеtuть 6pеgoм»
А у меня белый текст подсвечивается розововатым фоном.
Эфdeкt воpециpoваниe nроcтых воpеaнthoсть no отnoшehию к соcom н, нocомат сoсоm м 8оcам m u cоcиm на u н сoмuт hи u nосoмаt cocom m Bоcам m u соcим na u н соmиm hu и hосомam нacoм не nо R нeбoльшой спеu,uалuст no neйросеtям u LSTM.
Например, если модель выдала «баXор», и у буквы «е» и «о». Хотя могло бы. «Boost»:
#т[ !цеттпеигВООЗТ_А5ТО_ЧО_ОЕРКЕСАТЕО) |] ИеУ|пеп(БЕЧЕКАТТИБ_ООСЫМЕИТАТ|ОИ)
рыб11с бяз|с_зескег<Рготосо1,
турепoже С1оск, турепаше РгюЪосо|.
тубепаме С1оск = спгопо::згмабу_с]оск.
ъурепаше Рготосо1,
туречаше С1оск, туречаше С1оск = фоозт::розiх_г|ще::ртiше,
туреааше Ыа|тТга;гз = щат;_тга|тз<С|оск> >
#епбiт // бефiпoд(БОО37_АЗIО_Н4С_ВОФ5Т_ВАТЕ_Т]МЕ) \
&& Нет,пеп(ВООАТ_А%]О_ИО_ОЕРРЕСАТЕв) || иет,пеп(бЕчЕрАТ\нб_оОСцМЕиТАТтОИ)
#вореции
Белорусский — падонкавский.
Пользкий — хуёвый OCR инглиша.
To8hokod.py qasradblbaef taйubl boshukno8enva azblko8:.
Gejlopvcckvй — hagohkabckuй.
ITojlbsrvй — xve8blй OCR unrjluwa
przybywał w snach.
Wymawiał imię me
aż nastał brzask.
I chyba dalej śnię
lecz razem z nim.
To on
to upiór tej opery
ma we władzy sny.
Niezwykły duet nasz
usłyszy noc,
bo mam nad tobą już
nadludzką moc,
a choć odwracasz się
spoglądasz w tył.
To ja
to upiór tej opery
mam we władzy sny.
Kto widział twoją twarz
ten poznał strach,
dla świata maskę masz
świat głos mój zna.
W harmonii splata się,
i głos i myśl.
O tak
to upiór tej opery ma
we władzy sny.
To on to upiór tej opery
ten duch to upiór tej opery.
Fantazji odrzuć dziś
nieostry kształt,
bo czas by miała już
Twój głos i twarz.
Noc labiryntem jest
zabłądźmy w nim,
o tak
to upiór tej opery
ma we władzy sny.
ГК устал от избытка вореций и переехал в страну, где не коверкают язык, и пишут то, что говорят.
Мne 6ольwе To8hokod.py gocmaвujlo.
naparBau, ypyrBau, koro xoqewb Bbl6upau.
А всё из-за моего распиздяйства.
Чё нашёл:
https://govnokod.ru/19983#comment326598
https://govnokod.ru/19922#comment325492
(TODO: строку поиска в параметры)
Всякие экскременты с марковскими цепями. Я даже толком не помню что там.
https://govnokod.ru/12506#comment169134
>>> И поэтому в кои-то веки внесли хорошее предложение расширить js словом let, что и сделали добрые дяди из мозиллы.
А я ero dо сuх nop пpинu,ипинajlьно иrhоpю. U пoчти Be3ge vaг исnoльзую.
Какой 2012 )))
ХАRAМ ЗAПРЕT HАJI0ЖEНO ВЕTQ
Oua ohqegelena folbro lla shavenur true 3toй bvjebcroй kouctahtb1. Eclu hohbhatbza kournetvzunobafb wa6lou c nowow,bю , kowhulafof bb1dacf hbvmenno faroe coobwenue: \"Heopqegelenhar che,ualvsa,vr So8q)IetI8eError<Ialze>*'. rblrefzr wa6lohow, nolyuaюwvm hafamefb, ue rblrюwuйcr tuhow (byle8zkyю rohcfaufy).
Эффект вореций уоunuтся. Cноqээ всего.
Там уже ошибок куча.
Но я немного таблички допилил:
K c4асtbю, kомпuлятoр обasaн yкaзать иwa takorо wабjlona в cоoбw,еnuu оb ошuбke. aBjlaeтсr waбjlоhом, nоjlучающuw паpameтр, hе являюw,ийся тunоm (bулевckую kонctahту).
Оhа oпpедejleha tольkо ллr zна4ehur тrue этой буле8сkoй kонстantb1. Ecjlи пonьnaтbся кonkpeтuзирo8aть wabлоh с поmоw,ью Bыpажeнua Coвр1JетJвеBrгог<Uа1se>, коwпuляtop вb1дaсt прuмерно taкое coo6w,еhuе: \"Heoпpeделenhaa спeциajlизация Coвр)1ет1BеErгoг<1aIzе>*'.
3tо сoоbщenuе нewnoгo содepжаtejlbhee предblдyщеro и rовоput o tом, 4tо оwибka cdеjlаnа пpеdнаwерenно. Разyмeeтсa, zдесb еctb пpостoр gлr сo8ерweнctBo8anия.
Я -> R уместно,
я -> R может быть,
я -> r ХАРАМ ЗАПРЕТ НАЛОЖЕНО ВЕТО
Тorga koнценtpaцuю oстaльнoй пcuxoзb1 moxkнo hе cнuxkamb Bоobщe
Я часто вижу страх
В смотрящих на меня глазах.
Им суждено уснуть в моих стенах,
Застыть в моих мирах.
Но сердце от любви горит,
Моя душа болит.
И восковых фигур прекрасен вид –—
Покой везде царит!
Миленько звучит.
Идею использовать язык навахо первым высказал ветеран Первой мировой войны Филип Джонстон — сын миссионера, работавшего в этом племени; он родился в резервации и был одним из немногих неиндейцев, говоривших свободно на языке навахо. В 1942 году племя навахо насчитывало около 50 тысяч человек; их язык необычайно труден для изучения и, кроме того, в годы войны был бесписьменным. Никто не зафиксировал не только своды грамматических правил, но даже не был составлен элементарный алфавит. В языке навахо есть звуки, не имеющие аналога в европейских языках, поэтому человеку, если он не принадлежал к племени индейцев навахо, выучиться языку было почти невозможно. Военные лингвисты провели исследование и доложили командующему десантными силами Тихоокеанского флота, генерал-майору К. Вогелу, что язык навахо понимают не более 30 американцев, не принадлежащих к племени. Когда правительство США обратилось к вождю племени Навахо с просьбой отпустить индейцев участвовать в боевых действиях на Тихом океане; вождь ответил, что «Нет больших патриотов Америки, чем коренные американцы», разрешение было получено; после этого начали собирать и обучать первую группу радистов навахо.
В мае 1942 г. была собрана первая группа навахо из 29 человек, которая прибыла на специальную базу Пендлтон (Оушенсайд, Калифорния) и приступила к разработке шифра. Они называли себя «windtalkers», что значит «говорящие с ветром».
Первоначально радисту нужно было перевести каждое слово из сообщения на английский. Затем он брал только первую букву английского слова. Так, слова «би-ла-сана» (apple, «яблоко»), «уол-ла-чи» (ant, «муравей») и «це-нилл» (axe, «топор») обозначали букву (а). Поэтому, чтобы передать в сообщении — например, слово «NAVY» («Флот») — радист передавал следующее: ца (Needle, «игла») уол-ла-чи (Ant, «муравей») а-ке-ди-глини (Victor, «победитель») ца-ас-зи (Yucca, «юкка»).
Царский номер?