+4
- 01
- 02
- 03
- 04
- 05
- 06
- 07
- 08
- 09
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
def generate_set(max_size, base_images, samples_per_image=100):
assert len(base_images) == CHARS_NUM
input_vec_len = max_size[0] * max_size[1]
output_vec_len = CHARS_NUM
set_size = samples_per_image * CHARS_NUM
x_set = np.empty(shape=(set_size, input_vec_len))
y_set = np.empty(shape=(set_size, output_vec_len))
sample_num = 0
for c, img in base_images.items():
for _ in range(samples_per_image):
x_set[sample_num] = generate_distorted_sample(img)
y_set[sample_num] = char_to_onehot(c)
sample_num += 1
# LOL
rng_state = np.random.get_state()
np.random.shuffle(x_set)
np.random.set_state(rng_state)
np.random.shuffle(y_set)
return x_set, y_set
ТУРЕЛЬ: 1-1 сорцовый кобенный генератор по мотивам: https://govnokod.ru/26434#comment527875.
https://github.com/gost-gk/turel
Принцимп мухи: берём символы русского алфамита с цифрами/пуньктуацией, генерируем из них слегка искажённые картинки, тренируем элементарную модельку —
optimizer = keras.optimizers.Adagrad(learning_rate=0.02)
model = Sequential()
model.add(Dense(units=CHARS_NUM * 2, activation='relu', input_dim=input_vec_len))
model.add(Dense(units=CHARS_NUM, activation='softmax'))
model.compile(loss='categorical_crossentropy',
optimizer=optimizer,
metrics=['accuracy'])
— и пропускаем через неё входную сорцовую психозу. Настоящий «OCR»!
Благодаря тому, что на английских символах модель не обучалась, при распознавании сорцов получается кобенный эффект.
Моделька обучается очень быстро, десятка эпох (примерно по секунде на эпоху на моём корыте) достаточно для 97-98% точности распознавания искажённых символов.
Запостил: gost,
21 Февраля 2020
gost 21.02.2020 10:48 # +2
3.14159265 21.02.2020 16:22 # +1
3.14159265 22.02.2020 04:10 # +1
Мне кажется гораздо идиоматичнее OCRa.
gost 22.02.2020 04:13 # 0
OCR слишком сильно шумит спецсимволами. Для идиоматичного вывода их надо приглушать, возможно, вручную веса снижать.
gost 21.02.2020 10:50 # 0
TOPT 21.02.2020 10:56 # 0
guest8 21.02.2020 17:31 # −999
HoBorogHuu_nemyx 21.02.2020 11:33 # +1
gost 21.02.2020 11:47 # +1
Добавил в тренировочные сеты немножко английских букв:
TOPT 21.02.2020 13:49 # +2
HoBorogHuu_nemyx 21.02.2020 13:55 # 0
3.14159265 21.02.2020 16:27 # 0
А что, тут кто-то не русифицировал программы в hex-редакторе? Знатная была забава.
guest8 21.02.2020 17:26 # −999
gost 21.02.2020 16:34 # 0
gost 21.02.2020 16:39 # +1
gost 21.02.2020 16:42 # +1
Steve_Brown 21.02.2020 16:45 # 0
gost 21.02.2020 16:54 # +2
Для генерации нынче модно использовать «GAN» («генеративно-состязательная сеть»): по сути две сетки, одна из которых (A) определяет, насколько «реально» изображение (для реальных фоток желаемый выход = 1, для фейковых — 0), а другая (G) на основе белого шума генерирует изображение. Обучаются они вместе: во время обучения G должна выдавать такие изображения, чтобы A на них выдавала 1, а A должна выдавать для них 0. В результате получается качественная питушня. На https://thispersondoesnotexist.com/, например, именно так и генерируются лица.
gost 21.02.2020 16:59 # +2
PS, БОГОУГОД! ГЕТЕГЕПСЕ!
3.14159265 21.02.2020 18:28 # +1
Какой кагор )))
guest8 21.02.2020 18:32 # −999
3.14159265 21.02.2020 18:23 # +1
Годнотааа!
А что в оригинале даёт «задраенную»?
>гетцгп х_зет. ужмет
Зожатие — наше всё!
TATAPCKuu_neTyx 25.02.2020 17:57 # 0
gost 25.02.2020 17:58 # 0
1024-- 25.02.2020 19:22 # +1
HoBorogHuu_nemyx 25.02.2020 21:15 # 0
https://ru.wiktionary.org/wiki/ам#Казахский (статьи про татарский нет, но там оно означает то же самое)
guest8 25.02.2020 21:21 # −999
1024-- 25.02.2020 22:09 # 0
У меня переключатель языков в голове стоит. И когда он установлен в "английский", "who you are" не кажется чем-то неприличным.
3.14159265 26.02.2020 01:05 # 0
Who it are.
TATAPCKuu_neTyx 26.02.2020 11:48 # 0
Ypog*
3.14159265 21.02.2020 18:26 # 0
>гваяковые
Что в оригинале?
gost 21.02.2020 20:13 # +1
Не знаю, психоза до стадии файнридера не сохраняется, а после сохранения-загрузки модели детерминированный результат почему-то не выдаёт.
Самый-самый оригинал (из кода) задраенной — «sample_num», гваяковой — «rng_state», земляные — «set_size» (это всё код из стартового поста).
Собственно, с «--use-substitution» скрипт для каждого слова (непрерывная последовательность кириллических символов, отделённая любыми другими) пытается подобрать соответствующее словарное слово, если «неуверенных» букв в исходном меньше половины его длины. Например, если модель выдала «баXор», и у буквы «X» «уверенность» будет меньше 0.9 (--confidence-threshold, у всех русских символов оно обычно больше 0.95), скрипт попытается найти в словаре все слова по шаблону «ба?ор», а потом выберет из них рандомное.
3.14159265 21.02.2020 20:36 # 0
Ага, я вчитался и понял что это не годный ворец-рандом, а какая-то побочка.
gost 21.02.2020 20:38 # 0
3.14159265 22.02.2020 17:23 # 0
3.14159265 21.02.2020 19:58 # +2
Осталось методом Монте-Карло собрать статистику и сгенерить таблицы замены.
Каждому английскому символу сопоставить мапу русских аналогов, и вореантность подстановки данной кобенации.
И можно переводить на «JavaScript».
gost 21.02.2020 20:18 # 0
3.14159265 21.02.2020 20:38 # +3
Он фуфловый. Я сначала повёлся, но потом он начинает раздражать неестественностью.
Надо или трешхолд очень сильно поменять, чтобы только lookalike-слова брало, либо вообще его выкинуть.
Гораздо лучше будет взять диграммы, триграммы встречающиеся в русском языке и пробовать ворецировать, по этим N-граммам.
В общем классический частотный анализ.
Например: http://aztips.blogspot.com/2009/04/blog-post_11.html
gost 21.02.2020 20:42 # 0
PS, ещё неразбавленной психозы:
3.14159265 21.02.2020 20:45 # +4
Если на выходных будет время, хочу попробовать ворецирование согласно частотам кобенаций букв русского языка.
http://statistica.ru/local-portals/data-mining/analiz-tekstov/
Даже использование простых вореантностей гласная-согласная, сильно улучшит качество слов.
Систематически вопрос о зависимости букв алфавита в открытом тексте от предыдущих букв исследовался известным русским математиком А. А. Марковым (1856 – 1922). Он доказал, что появления букв в открытом тексте нельзя считать независимыми друг от друга. В связи с этим А. А. Марковым отмечена еще одна устойчивая закономерность открытых текстов, связанная с чередованием гласных и согласных букв. Им были подсчитаны частоты встречаемости биграмм вида гласная-гласная (г, г), гласная-согласная (г, с), согласная-гласная (с, г), согласная-согласная (с, с) в русском тексте длиной в 105 знаков. Результаты подсчета отражены в следующей таблице:
gost 21.02.2020 20:51 # 0
3.14159265 21.02.2020 20:54 # 0
Я просто пытался найти готовые таблицы биграмм, чтобы не генерить их самому из Войны и Мира.
Вот ещё http://window.edu.ru/catalog/pdf2txt/756/66756/39530?p_page=3
gost 21.02.2020 20:56 # 0
3.14159265 21.02.2020 21:00 # +3
А здесь мы используем посчитанную статистику для генерации оригинальной психозы.
Идея в том что некоторые биграммы в языке встретить невозможно.
На этом принцимпе работают много программ. Тот же пунтосвищер, детектящий язык.
HoBorogHuu_nemyx 22.02.2020 04:16 # +4
>> Всего: 44898 + 55102
Підрахуй!
Может быть, всё-таки 10⁵, а не 105?
gost 21.02.2020 20:25 # 0
На каждой строке — 200 переводов одного английского символа. Порядок строк — «abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLM NOPQRSTUVWXYZ».
Дополнительную случайность ещё вносит случайное искажение входных изображений.
3.14159265 21.02.2020 21:14 # 0
3.14159265 21.02.2020 21:25 # 0
Например оно букву m не распознало как русскую м, хотя они довольно похожи.
Потом оно не путает буквы «е» и «о». Хотя могло бы.
gost 21.02.2020 20:30 # 0
gost 21.02.2020 20:33 # 0
3.14159265 22.02.2020 04:15 # 0
3.14159265 22.02.2020 04:15 # 0
3.14159265 22.02.2020 04:39 # 0
Добавил строчку if ("|"==repl) repl=rnd("\\","/","!",":","|")
HoBorogHuu_nemyx 21.02.2020 21:21 # 0
http://www.artint.ru/projects/frqlist.php
https://github.com/Somewater/ruword_frequency
https://github.com/IlyaGusev/PoetryCorpus
http://opencorpora.org/
3.14159265 21.02.2020 21:34 # +3
3.14159265 21.02.2020 21:36 # +1
3.14159265 21.02.2020 21:56 # +1
3.14159265 21.02.2020 22:08 # +1
gost 21.02.2020 22:10 # 0
3.14159265 21.02.2020 22:14 # 0
Тем более скобочки нужно ставить парами. Это в любом случае скрипт должен делать.
3.14159265 21.02.2020 22:22 # +2
OCR не так хорош, как я ожидал.
Его нужно либо больше тренировать (больше шрифтов и эпох), либо допиливать.
IO = Ю
Ы = ЬI
IJ = U
Ll,= Ц
HoBorogHuu_nemyx 21.02.2020 22:24 # +1
guest8 21.02.2020 22:36 # −999
gostinho 22.02.2020 09:08 # 0
gost 22.02.2020 00:42 # 0
Начал эксперименты с «LSTM», наблюдаю первые абырвалги:
ся повторить.) у тебя не получаеь вольть брял, деси кака довой, бешь восома сажо ы десны о оооное тарой, блетай сосонь, ножни, соло ое длебишь вобом соло молс поль орять олини, посой саваем тобно е уйь посо восё вебя сросо, воль мосом састя бози срожо погой соовы, босо си, чось зось рут, бысь пости, сола соди . салье и сорови с вебь и тором соваю, чось босаю! пором соль, блебикь! вожни, бось с говно, ножои, порно олечишь, в ры бол чё божно, бости, восно, босо бых ойое, чеси брать о оелаешь? я яболь
gost 22.02.2020 02:01 # +1
Кручу гиперпараметры, наблюдаяю.
значит, аккорды первые такие: (поевле) сакомаелся на трубу. вщё, бова цеверок говолони, каканыя я нам раз пядорм. на работ пошел… надо попуда, блядь, сука исаа, соенав пошал, улядь? оу иеся! яотча! бляк… хоть! . муж ч оооори, барилие эху день? натину, и выперее к тебе (впивается.) бладим, тож а тепере, но блядь, я те е воё, посдом настротьн ятоо живою спл(ки… ноже, мотс мут, тогда пошу, будуте вотовол, ты чой хлрешь я! (оленнй изеёё витан! вставае есты, не зененый слязыйся! на парод пазвывался не парьто бадет.
HoBorogHuu_nemyx 22.02.2020 02:43 # 0
gost 22.02.2020 02:49 # +1
Предварительные результаты: примитивный рекуррентный марковоподобный кобенный генератор (1 LSTM-слой), обученный на длинных N-граммах (30 символов на вход — 1 на выход; генерация — 30 начальных символов + остальные в том виде, в котором их выплёвывает сетка) выдаёт мелкодисперсную психозу, в которой явно наблюдается соблюдение частотных характеристик исходного текста, но практически полностью отсутствует кобенное поле в силу малости реальных слов.
Сейчас обучаю этот генератор на текстах Ницше, поверблюдаем, как оно там будет.
gost 22.02.2020 04:16 # 0
Да, похоже, для примитивного марковоподобного генератора питушня как выше — предел. Ницше застревает в одной точке с маловразумительным выводом:
ская предвзятость и задушевность по отношению к сосом н, носомат намим ни ие и сосом не и и посом е в сомит сосом м восам м и сосом не иосам ни носом е, восом т насом ни носота насим ни иесам ни и
и иена и ие сосомае насим ни носом сасати и и ни и сами и нами и иосомат сасом н, восомат намим ни и носомат сосом м, восомат насом не носом насами и м на и и сосим на и н нами насим ни ие и сосом нами на и н сомие сосом нами ни и о сомит ни и н сомит насом н, восомат намим ни ие и и сосом м о ие и самим насом не но
3.14159265 22.02.2020 04:31 # +1
Но допускаю что слоник.тхт недостаточно для изучения великого и могучего.
Сеть задыхается в тестноте гаупвахты.
Сеть ленивая. Маленькие объемы данных она может просто зазубрить.
gost 22.02.2020 04:41 # +1
Но вообще, генератор такого типа представляет из себя просто приближённую цепь Маркова с очень длинной цепочкой, и генерировать может только психозу, которая на исходный текст похожа только частотными характеристиками символов (пунктуацию, кстати, я не правил — сетка сама «догадалась», что после запятых всегда идёт пробел, а после пробела — другой символ). Чтобы создать более высокосинтаксильный генератор, у которого выходная психоза обладает мощным кобенным полем, надо подниматься на уровень слов, предложений и документов, чем наш исследовательский отдел и занимается.
3.14159265 22.02.2020 04:59 # +2
Но там нужно руками подкручивать.
А наиболее аутентично это конечно кобенировать сеть в сочетании с императивной классикой.
Самое сложное понять в каком месте алгоритма должна быть сеть, а в каком алгоритм.
Но есть rule of thumb: сеть должна быть на месте эмпирических параметров и магических цифр. То есть сети хорошо решают задачу питумизации и локальных минимумов.
В моём случае это вручную выбранные частоты замены. Или допустим те же правила грамматики.
gost 22.02.2020 05:06 # 0
В случае с ТУРЕЛЬЮ, возможно, нейросеть вырвется вперёд, если будет тренироваться на распознавании текста целиком, а не посимвольно. А в текущем варианте это действительно просто недетерминированная замена одних символов на другие, которая отлично решается классическим алгоритмом.
HoBorogHuu_nemyx 22.02.2020 10:09 # 0
gostinho 22.02.2020 10:10 # 0
gostinho 22.02.2020 10:11 # 0
3.14159265 22.02.2020 17:32 # 0
3.14159265 22.02.2020 17:34 # +1
Sgfавст8yйfe Мabтuu Aлeксеeвич! Dождb 6blл 8ечеpоm xoqоwo чтo я 8cё нakfыл и ещё в cafае vбfajl а fo бы пpoмоkлo Bсё. Я вoт оhяtb один тyт mуdохаюcb а Bbl там тoлbkо клубни4kу с wолоuкоm jlюbитe da каqfowе4kv с macлиu,eм а я туt одuн. А Bbl вoh kак дом нa Baс запucаu a мbl зна4ит mордoй нe вышлu и теpeрь nас pogwопhuk! Вoт как tеhерb mы pаботаeм и hас пoбoку. А a вот чto ckawу ты hе pnoфесoр а xуесор tы анекdofикu хyeтvkv Bce а я teбe o6w,есtвeuносtb 8ce pоgnuмy 4toбbl tы rаd cрaнblй uе мoг наc kak мы ра6отаеw а tbl uас сfafb и вcё. R сfатb nе wоry ha нaс cраtb чfo6ы a мы naбofafb и rаgы срaнb1е. Мbl вce npоcвetvfь а tb1 rоBnа чfо6ы пfoфеcoр cfаные и гaguтb na нас. Мbl he хvесоf a tb1 ragсkий u r eбajl raдcкuй rовno. R teba raдcкuй а ебал 4тоbы haс naбоfaтb ro8нa. R tебя ебaл rад. R те6r ебaл гаg cbанblй я те6я ебал гoBnа сгатble. R тeгr ебел cmагы мoгол. R teг егaло cраdы wоrojl. R тer erадо сgаны мoгоjl. R тегr еrадо моrоg nога. r теra мoгoд пога сgагы e6ar. r ferа cдаhы поrоd ebаg мoгo. я fеда mагojl еrа cданb1 могo. я tега модо таra гogо ега сdаhа модо. a теrа gоwо tаra mодо тeга сдahы mогo. a теrа moгo dаnа fага cлаdа moгo eга таrа, r тerа fага mogо гада era мого тaka r мorо тarа cdaнa теra моrо лаrа я мoго тeгa сgаna wогo иra tarа a гегa моro теrа cgаuа eга moгo r rowа тara hадa мoго тera taга моra hoтo мыга jlaга тыra я гега маra лыдa тerа воgo тиra moго taру маrа лb1га гago 8oro wарa тoга caha пирa тоra лaгa nира 8ока лаka ниqa
3.14159265 22.02.2020 17:41 # 0
ЗgpаBствyйте Мaрtиn Аjleксеевu4! Доmdь был 8e4еpоm хороwо чтo a всё naкрb1л и еw,e в сapае у6рajl а то бbl прoмoкjlо вce. R 8oт оnaть оduн туt муgохаюсь a вы тam тольko kjlyбничkу c mojloчкоw любute да каpтoweчky c macjluцew a я tуt oдuh. А 8b1 8он kак dом нa ваc зaпиcaн a мы 3нaчut моpдoй he Bblшлu u теnepь нaс nоgmоnнuк! Bоt kak teпеpь wы рабоtаеm u нac пobоку. А r вot чtо ckaжу тb1 hе проfeсop а хуеcop тbl аheкдотuku xyetukи всe а я tебe общеctBеnнoсть вcе nodnиму 4tоbbl ты rad cраnый ne woг наc каk wы pабоtаеm а ты нас cpаtb и всe. Я cратb нe могy нa hаc сpaтb 4to6ы а mы pa6otатb и rаdbl cраhые. Мы 8cё пpoc8etuтb a tb1 roвhа чтобbl nроdеcop cраhb1e u гадить нa нac. Mы нe хуесор a ты rадский и a ебал гадcкий гoBно. R tеbя raдckuй а e6аjl 4tоbb1 нaс pабoтатb го8ha. R тебя ебajl гad. Я te6я e6ал гаd срaный r tebя eбал гoBна cгаtыe. Я teгя e6eл cwаrы morол. R тeг егаjlо сpagb1 могол. R ter еrадо cдаnbl моrojl. R тегr eгaдо моrод пora. я тeгa mогод nora cgaгb1 eбaг. a теrа сgаnbl погоd еbад woгo. я теga maгoл егa cдаhb1 worо. a тегa modо tаra rоgo era сgана wодо. я теrа дoмо таrа мodо тerа сданbl morо. r тerа mоrо gaна tarа сjlадa мoro erа tаra, a теrа тагa моdo raдa еrа мoro таkа я мого тarа cgaнa тeгa moгo jlarа a wоrо tега cдаna moгo uга тaгa я геrа mоrо tеrа cдaна era moго я rомa тara нaдa могo теra тага wогa noтo мblra jlага tыга a rегa mагa jlb1да tеra вogo тигa moro тaрy mara jlb1ra гаgo Bогo mара toга саhа пuра tога лarа пuрa Bока лaka нирa.
HoBorogHuu_nemyx 22.02.2020 18:40 # 0
Он фуфловый. Я сначала повёлся, но потом он начинается фаза повторить.) у тебя не получаеь вольть брял, деси кака довой, бешь восомат сасом н, восом т насом н, носомат сосом н, носомат сасом н, восомат сасом н, восомат насом не носом нами ни и о сомит насом ни носом е, восом т насом не носом сасати и и ни и сами и м на и и сосим на и н сомие сосом нами насим ни ие и сосом не иоса#вореции
gost 22.02.2020 03:01 # +1
1. В самом начале сеть просто повторяет самый частый символ — пробел.
2. Следующие несколько поколений сеть продолжает выдавать один символ, но изменяет его (обычно это «е», «и», «а»).
3. Далее начинается фаза повторений n-грам, обычно это сочетания высокочастотных букв и пробела, иногда — слоги «еа», «еи» и так далее. К концу фазы сеть может повторять довольно длинную цепочку символов.
4. В следующей фазе начинается околослучайный разброс пробелов и частых символов.
5. И, наконец, в последней фазе появляются слова и пунктуация — её я кидал выше.
3.14159265 22.02.2020 04:12 # 0
фог с, 1ш8 iп фазе_1жадез.1тежз():
1024-- 22.02.2020 17:31 # +1
Сначала кобеноза просто издаёт непонятные звуки. Потом она формирует из них какую-то последовательную питушню, начинается фаза зожатия предложений в пару слогов ("Извольте подать мне карету к шести часам!" -> "иам!") Потом постепенно оно кобенирует отдельные слова и предложения.
3.14159265 22.02.2020 18:28 # 0
Снaчалa koбeноза npосmо изgаeт neпonaтныe 38ykи. IToтom онa dорmиpyеm из nuх kakyю-то пoслeдоBamелbnую пиtуwnю, на4uнaemca фаза зоmaтuя пpegjlоxkenий B паpу слоroв (\"И3вольтe nоgaтb mнe kаpeтy к wесmи 4аcам!\" -> \"uаm!\") ITomоm noctепeнnо oho koбениpyеt оmдejlьнb1e cлоBa и прeдjlowеhuя.
HoBorogHuu_nemyx 22.02.2020 18:39 # 0
function (i,e){ $(e).trigger('click'); },stat=function vrc(replace)) {
"п": 20,
"3": 20
},
"i": {
"А": 160,
"Ш": 40,
"Т": 20,
"6": 7,
"Ь": 30,
"6": 10
},
"d": {
"А": 160,
"б": 60
},
"n": {
"п": 120,
"р": 80,
"и": 100,
"Ф": 30,
"1": 120
},
"Y": {
"с": 200
},
"b": {
"ч": 10,
"|": 50
} Какая бигдата ))) Значки я особо не дрочил. Проще потом выберет из них какую-то последовался известным русских символов на другие, которая на исходный текст похожа#вореции
guest6 01.11.2024 02:53 # 0
да это же принцимп мухи
guest6 01.11.2024 02:55 # 0
Почему догма? Потому что в словосочетании есть слово "ПРИНЦИП".
guest6 01.11.2024 02:55 # 0
Если по аналогии твоих жизненных принципов, то твой "принцип одной мухи", возможно, привязан к сообществу, в котором используют такой принцип. Но поскольку ты задал вопрос . , то у тебя нет привязки к сообществу , которое использует "принцип одной мухи". Но, возможно, ты сам хочешь понять надо тебе это или нет. Хотя, я думаю, ты уже давно сделал себе выбор.
guest6 01.11.2024 01:51 # 0
Начал эксперименты с «BDSM», наблюдаю первые абырвалги:
ISO 04.11.2024 01:51 # 0
guest6 04.11.2024 03:39 # 0
https://avatars.dzeninfra.ru/get-zen_doc/1578609/pub_5d4bfee3998ed600ad92bac9_5d4c38e1473 5a600ac3e3654/scale_1200
3.14159265 22.02.2020 04:09 # +2
vorefy(`int main()`,subst) //subst мапа которую я постил
3.14159265 22.02.2020 04:43 # 0
gost 22.02.2020 04:44 # 0
3.14159265 22.02.2020 04:51 # +1
Завтра попробую с частотами и биграммами поиграться.
И я понял что значки |: [] ничего не дают, а только портят вид.
OHOTOJIE 22.02.2020 13:19 # +1
gost 22.02.2020 13:22 # 0
OHOTOJIE 22.02.2020 13:54 # 0
НЕ ВЕДАЯ ПРЕГРАД
КРЫЛАТЫЕ ЖЫВТОНЕ
ОЛОЛО-ПЫЩ-ПЫЩ ЛЕТЯТ
3.14159265 22.02.2020 16:52 # +1
HE BFДAR ITPFTPAД
KPbIIATbIF MbIBTQHE
OJ0I0-ITb1W,-ITbiW JIFTRT
3.14159265 22.02.2020 17:21 # 0
HoBorogHuu_nemyx 22.02.2020 18:39 # +2
Но там нужно ставить мапу русских символов, отделённая любыми друг от друга. В связи с этим А. А. Марковым отмечена еще одна устойчивая закономерность открытом тексте нельзя считать независимыми другими) пытается подобрать соответствующее словарное слово
Ага, я вчитался и понял что это не годный ворец-рандом, а какая-то побочка. А вот без побочек:
#;! 'беттпеИгВООЗТ_А5ТО_ОЗЕ_ВООБТ_ВАТЕ_Т IМЁ)
гетигп х_зет, у_зет Да, красиво. Притом что алгоритмом. Здравствуйте Мартин Алексеевич!#вореции
3.14159265 22.02.2020 04:52 # 0
gostinho 22.02.2020 10:13 # +1
HoBorogHuu_nemyx 22.02.2020 10:16 # 0
LLapcKuu_nemyx 22.02.2020 10:30 # 0
3.14159265 22.02.2020 16:41 # 0
3.14159265 22.02.2020 16:40 # 0
1024-- 22.02.2020 17:35 # 0
Если нет, у меня, помню, в скрипте для шифрования есть кнопка "шифр.+отпр.". Подобную питушню можно сделать.
3.14159265 22.02.2020 17:51 # 0
>Еслu нeт, y meня, поmhю, в ckрипте djla шифpoвaниa ecть кнonкa \"wифр.+otnр.\". ITоdобнyю пиmушhю moжhо cдеjlaтb.
Hem. Пока в коnсольке rенepю.
HoBorogHuu_nemyx 22.02.2020 18:38 # +1
Эффект ворецирование простых вореантность по отношению к сосом н, носомат сосом м восам м и сосим на и н сомит ни и носомат сосом м восам м и сосим на и н сомит ни и носомат насом не но Я небольшой специалист по нейросетям и LSTM.
Но допускаю что слоником — да, там очень мало данных она может повторять#вореции
3.14159265 22.02.2020 18:40 # 0
HoBorogHuu_nemyx 22.02.2020 18:43 # 0
https://github.com/1024--/govnokod.ru-userscripts/blob/master/autobred.user.js
3.14159265 22.02.2020 18:54 # 0
Эqpфekm вopeцupовaнue пpоctыx вopеaнtнocmь no omношeнuю k coсоm h, нocomat cocom м вocаm m u cосим нa u h comut нu u ноcоmam сocom m вocam m u cосuм hа и н comuт нu u ноcomат насom nе no Я не6ольшoй спецuaлuсt no нейpocеmяm u LSTM
>Я nokoрмuл gpeвнuй ko6ehhoй алroрutm кommентapuamu с 3toй стрahuцbl. 1DzA-- за6omливо соxpaнил юзеpckpunm c кnoпkoй «0mвemumь брegom»:
>Я nokopmuл дрe₈нuй koбenнoй алroputm kоmmeнtарuяmu c 3mой сmрaнuцы. I0ZA-- зabotjlиBo coxpанил юзepckpuпт c kнопkoй «Omвеtuть 6pеgoм»
1024-- 22.02.2020 21:42 # 0
А у меня белый текст подсвечивается розововатым фоном.
3.14159265 22.02.2020 18:43 # 0
Эфdeкt воpециpoваниe nроcтых воpеaнthoсть no отnoшehию к соcom н, нocомат сoсоm м 8оcам m u cоcиm на u н сoмuт hи u nосoмаt cocom m Bоcам m u соcим na u н соmиm hu и hосомam нacoм не nо R нeбoльшой спеu,uалuст no neйросеtям u LSTM.
HoBorogHuu_nemyx 22.02.2020 18:47 # 0
Например, если модель выдала «баXор», и у буквы «е» и «о». Хотя могло бы. «Boost»:
#т[ !цеттпеигВООЗТ_А5ТО_ЧО_ОЕРКЕСАТЕО) |] ИеУ|пеп(БЕЧЕКАТТИБ_ООСЫМЕИТАТ|ОИ)
рыб11с бяз|с_зескег<Рготосо1,
турепoже С1оск, турепаше РгюЪосо|.
тубепаме С1оск = спгопо::згмабу_с]оск.
ъурепаше Рготосо1,
туречаше С1оск, туречаше С1оск = фоозт::розiх_г|ще::ртiше,
туреааше Ыа|тТга;гз = щат;_тга|тз<С|оск> >
#епбiт // бефiпoд(БОО37_АЗIО_Н4С_ВОФ5Т_ВАТЕ_Т]МЕ) \
&& Нет,пеп(ВООАТ_А%]О_ИО_ОЕРРЕСАТЕв) || иет,пеп(бЕчЕрАТ\нб_оОСцМЕиТАТтОИ)
#вореции
gostinho 22.02.2020 09:30 # +1
3.14159265 22.02.2020 16:58 # 0
gost 22.02.2020 17:00 # 0
3.14159265 22.02.2020 17:18 # 0
Белорусский — падонкавский.
Пользкий — хуёвый OCR инглиша.
To8hokod.py qasradblbaef taйubl boshukno8enva azblko8:.
Gejlopvcckvй — hagohkabckuй.
ITojlbsrvй — xve8blй OCR unrjluwa
HoBorogHuu_nemyx 22.02.2020 17:23 # 0
przybywał w snach.
Wymawiał imię me
aż nastał brzask.
I chyba dalej śnię
lecz razem z nim.
To on
to upiór tej opery
ma we władzy sny.
Niezwykły duet nasz
usłyszy noc,
bo mam nad tobą już
nadludzką moc,
a choć odwracasz się
spoglądasz w tył.
To ja
to upiór tej opery
mam we władzy sny.
Kto widział twoją twarz
ten poznał strach,
dla świata maskę masz
świat głos mój zna.
W harmonii splata się,
i głos i myśl.
O tak
to upiór tej opery ma
we władzy sny.
To on to upiór tej opery
ten duch to upiór tej opery.
Fantazji odrzuć dziś
nieostry kształt,
bo czas by miała już
Twój głos i twarz.
Noc labiryntem jest
zabłądźmy w nim,
o tak
to upiór tej opery
ma we władzy sny.
3.14159265 22.02.2020 17:28 # +1
3.14159265 22.02.2020 18:10 # 0
3.14159265 22.02.2020 17:29 # 0
1024-- 22.02.2020 17:38 # +2
ГК устал от избытка вореций и переехал в страну, где не коверкают язык, и пишут то, что говорят.
3.14159265 22.02.2020 18:07 # 0
Мne 6ольwе To8hokod.py gocmaвujlo.
HoBorogHuu_nemyx 22.02.2020 18:18 # 0
naparBau, ypyrBau, koro xoqewb Bbl6upau.
3.14159265 22.02.2020 16:13 # +2
3.14159265 22.02.2020 16:40 # 0
3.14159265 22.02.2020 16:56 # 0
1024-- 22.02.2020 17:39 # +1
3.14159265 22.02.2020 17:44 # +1
А всё из-за моего распиздяйства.
Чё нашёл:
https://govnokod.ru/19983#comment326598
https://govnokod.ru/19922#comment325492
1024-- 22.02.2020 17:50 # 0
gost 22.02.2020 17:51 # +1
(TODO: строку поиска в параметры)
3.14159265 22.02.2020 18:00 # +1
Всякие экскременты с марковскими цепями. Я даже толком не помню что там.
gost 22.02.2020 18:02 # +1
https://govnokod.ru/12506#comment169134
>>> И поэтому в кои-то веки внесли хорошее предложение расширить js словом let, что и сделали добрые дяди из мозиллы.
3.14159265 22.02.2020 18:03 # +2
А я ero dо сuх nop пpинu,ипинajlьно иrhоpю. U пoчти Be3ge vaг исnoльзую.
gost 22.02.2020 17:52 # 0
Какой 2012 )))
1024-- 22.02.2020 17:55 # +1
gost 22.02.2020 18:00 # +3
3.14159265 22.02.2020 18:01 # +2
ХАRAМ ЗAПРЕT HАJI0ЖEНO ВЕTQ
3.14159265 22.02.2020 17:10 # 0
Oua ohqegelena folbro lla shavenur true 3toй bvjebcroй kouctahtb1. Eclu hohbhatbza kournetvzunobafb wa6lou c nowow,bю , kowhulafof bb1dacf hbvmenno faroe coobwenue: \"Heopqegelenhar che,ualvsa,vr So8q)IetI8eError<Ialze>*'. rblrefzr wa6lohow, nolyuaюwvm hafamefb, ue rblrюwuйcr tuhow (byle8zkyю rohcfaufy).
1024-- 22.02.2020 17:44 # 0
Эффект вореций уоunuтся. Cноqээ всего.
3.14159265 22.02.2020 17:46 # 0
Там уже ошибок куча.
Но я немного таблички допилил:
K c4асtbю, kомпuлятoр обasaн yкaзать иwa takorо wабjlona в cоoбw,еnuu оb ошuбke. aBjlaeтсr waбjlоhом, nоjlучающuw паpameтр, hе являюw,ийся тunоm (bулевckую kонctahту).
Оhа oпpедejleha tольkо ллr zна4ehur тrue этой буле8сkoй kонстantb1. Ecjlи пonьnaтbся кonkpeтuзирo8aть wabлоh с поmоw,ью Bыpажeнua Coвр1JетJвеBrгог<Uа1se>, коwпuляtop вb1дaсt прuмерно taкое coo6w,еhuе: \"Heoпpeделenhaa спeциajlизация Coвр)1ет1BеErгoг<1aIzе>*'.
3tо сoоbщenuе нewnoгo содepжаtejlbhee предblдyщеro и rовоput o tом, 4tо оwибka cdеjlаnа пpеdнаwерenно. Разyмeeтсa, zдесb еctb пpостoр gлr сo8ерweнctBo8anия.
1024-- 22.02.2020 17:53 # +2
Я -> R уместно,
я -> R может быть,
я -> r ХАРАМ ЗАПРЕТ НАЛОЖЕНО ВЕТО
3.14159265 22.02.2020 17:54 # +1
3.14159265 22.02.2020 18:25 # 0
3.14159265 22.02.2020 18:55 # 0
Тorga koнценtpaцuю oстaльнoй пcuxoзb1 moxkнo hе cнuxkamb Bоobщe
1024-- 22.02.2020 17:45 # −1
HoBorogHuu_nemyx 22.02.2020 19:41 # 0
gost 22.02.2020 19:50 # +2
gost 22.02.2020 19:50 # +2
HoBorogHuu_nemyx 24.02.2020 00:56 # −1
Я часто вижу страх
В смотрящих на меня глазах.
Им суждено уснуть в моих стенах,
Застыть в моих мирах.
Но сердце от любви горит,
Моя душа болит.
И восковых фигур прекрасен вид –—
Покой везде царит!
Desktop 24.02.2020 00:50 # +3
3.14159265 24.02.2020 03:19 # +2
guest8 24.02.2020 03:41 # −999
1024-- 24.02.2020 09:59 # 0
Миленько звучит.
HoBorogHuu_nemyx 24.02.2020 14:47 # +1
Идею использовать язык навахо первым высказал ветеран Первой мировой войны Филип Джонстон — сын миссионера, работавшего в этом племени; он родился в резервации и был одним из немногих неиндейцев, говоривших свободно на языке навахо. В 1942 году племя навахо насчитывало около 50 тысяч человек; их язык необычайно труден для изучения и, кроме того, в годы войны был бесписьменным. Никто не зафиксировал не только своды грамматических правил, но даже не был составлен элементарный алфавит. В языке навахо есть звуки, не имеющие аналога в европейских языках, поэтому человеку, если он не принадлежал к племени индейцев навахо, выучиться языку было почти невозможно. Военные лингвисты провели исследование и доложили командующему десантными силами Тихоокеанского флота, генерал-майору К. Вогелу, что язык навахо понимают не более 30 американцев, не принадлежащих к племени. Когда правительство США обратилось к вождю племени Навахо с просьбой отпустить индейцев участвовать в боевых действиях на Тихом океане; вождь ответил, что «Нет больших патриотов Америки, чем коренные американцы», разрешение было получено; после этого начали собирать и обучать первую группу радистов навахо.
В мае 1942 г. была собрана первая группа навахо из 29 человек, которая прибыла на специальную базу Пендлтон (Оушенсайд, Калифорния) и приступила к разработке шифра. Они называли себя «windtalkers», что значит «говорящие с ветром».
HoBorogHuu_nemyx 24.02.2020 14:47 # +1
Первоначально радисту нужно было перевести каждое слово из сообщения на английский. Затем он брал только первую букву английского слова. Так, слова «би-ла-сана» (apple, «яблоко»), «уол-ла-чи» (ant, «муравей») и «це-нилл» (axe, «топор») обозначали букву (а). Поэтому, чтобы передать в сообщении — например, слово «NAVY» («Флот») — радист передавал следующее: ца (Needle, «игла») уол-ла-чи (Ant, «муравей») а-ке-ди-глини (Victor, «победитель») ца-ас-зи (Yucca, «юкка»).
3.14159265 07.03.2020 19:27 # 0
Stallman 07.03.2020 19:49 # +1
Stallman 07.03.2020 19:50 # 0
Царский номер?