- 01
- 02
- 03
- 04
- 05
- 06
- 07
- 08
- 09
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
function returnUserId() {
if (document.getElementById('userstap') != null ) {
var obj = document.getElementById('userstap');
<% if ((sUserIdForPrint != null) && !sUserIdForPrint.equals("")) {%>
if (obj.options[obj.selectedIndex].value == 0) {
return "<%=sUserIdForPrint%>";
<% } %>
<% if (((sAccGrpUserIdForPrint != null) && !sAccGrpUserIdForPrint.equals("")) && ((sUserIdForPrint != null) && !sUserIdForPrint.equals(""))) {%>
} else if (obj.options[obj.selectedIndex].value == 1 ) {
return "<%=sAccGrpUserIdForPrint%>";
<% } else if ((sAccGrpUserIdForPrint != null) && !sAccGrpUserIdForPrint.equals("")){%>
if (obj.options[obj.selectedIndex].value == 1 ) {
return "<%=sAccGrpUserIdForPrint%>";
<% } %>
<% if (((sAccGrpUserIdForPrint != null) && !sAccGrpUserIdForPrint.equals("")) || ((sUserIdForPrint != null) && !sUserIdForPrint.equals(""))) {%>
} else if (obj.options[obj.selectedIndex].value == 2) {
return "<%=userId%>";
}
<% } else {%>
if (obj.options[obj.selectedIndex].value == 2) {
return "<%=userId%>";
}
<% } %>
} else {
return "<%=userId%>";
}
}
index.jsp создает сессию, рассказывает где лежит spa приложение, больше ничего не делает
служит примерно для того же, что и internet explorer - позволяет скачать нормальный браузер
зачем делать дешевые интернетные сайты, если можно делать дорогие интранетные
гугл, вроде, тот же ангуляр уже нормально краулит с этого года
Yandex поддерживает этот стандарт Вкратце - нужна специальная адаптация для поисковиков.
Понятно.
но они (поисковые гиганты) работают над тем, чтобы исполнять js, будто паук, например, и есть браузер, например
Ну это единственный путь. Тем более что они сами поставляют браузеры.
PS. Сначала подумал что вы заразились бредовым тавтологизмом. Только с третьего прочтения въехал.
>If you're starting from scratch, one good approach is to build your site's structure and navigation using only HTML. Then, once you have the site's pages, links, and content in place, you can spice up the appearance and interface with AJAX. Googlebot will be happy looking at the HTML, while users with modern browsers can enjoy your AJAX bonuses.
Кстати, а вообще есть нормальный способ искать по комментам с ютуба?
в чем беда?
нормальный spa фреймворк нормально работает с mysite.porn/#path/whatever/you/want
там смысл вот в чем. Жмешь кнопочку поделится а фейсбук показывает не страницу которой делились а индексную. У них там робот сидит который ходит на страницу урл которой передали. Робот походу тупенький js не умеет ну и получает что на индексной видит. Решили это жестким костылем ловим робота когда он заходит на забираем url который он передает отдаем урл phantomjs который отрабатывает страницу и все что фантом на генерил отдаем роботу.
динамический javacript это не круто, а вот написанные на c# динамические функции javascript, которые генерят динамические формы, и динамический js- это да. до сих пор не могя понять, насколько они упоротые были там.