суббота, июля 07, 2007

Google Adsense - Ориентация на разделы

В последнее время начал эксперементировать с Google Adsense - и оказалось что есть вещь аналогичная тегам у бегуна - возможность выделения части контента для указания более релевантной части текста на странице. Как ни странно, это не очень афишируется и есть определенные ограничения, по-видимому связанные с тем, что эти возможности могут широко использовать спамеры.

Подробно: https://www.google.com/adsense/support/bin/answer.py?answer=23168&ctx=ru:search&query=AdSense+Section+Targeting&topic=&type=f

Примеры использования:
HTML-теги, предназначенные для подчеркивания важности раздела страницы, имеют следующий формат:
<!-- google_ad_section_start -->

<!-- google_ad_section_end -->

Добавив в начальный тег выражение (weight=ignore), можно указать те разделы, которые Вы хотели бы проигнорировать.
<!-- google_ad_section_start(weight=ignore) -->

Там же предупреждают - что таким образом нельзя выделить, например, заголовок раздела - и нужно включать только большие объёмы контента. Малые объёмы заключённые в такие теги могут быть расценены как нарушение программы. Нужно будет попробовать, по крайней мере будет полезно исключать некоторые блоки которые могут уменьшать релевантность (например комментарии).

Хорошо расписано в Блогера из Алтая тут: http://bobrdobr.blogspot.com/2007/07/google-adsense-section-targeting.html

07.07.07

Сегодня кстати выходит новый альбом возрождённой Smashing Pumpkins

пятница, июля 06, 2007

Отслеживание Adsense кликов через Analytics

1. Скачать скрипт - astrack.js
2. Зайти в Google Analytics и настраить цель для нужного сайта. URL - /asclick и любое название, например “Adclick”. Сам урл существовать не должен, это дело возьмет на себе джаваскрипт.
3. Закачать astrack.js на сервер и вставить код - <script src="/astrack.js" type="text/javascript"></script> в футер сайта.

Подробней тут: http://stwinnie.com/tracking-adsense-clicks-using-google-analytics/.
Пошёл пробовать.

Безопасный Серфинг без VPN, через SSH

Нашёл сегодня жутко полезную программу MyEntunnel - которая позволяет серфить безопасно без VPN - через любой SSH аккаунт на сервере. Как то раньше пытался установить и настроить VPN на своём сервере, но не получилось. С помощью MyEntunnel - я настроил подключение за одну минуту. Нужно только ввести настройки ssh доступа. Причём она не шифрует весь трафик, как например VPN - а позволяет подключаться через зашифрованный канал для отдельных приложений, каких захотим - для этого нужно настроить, чтобы доступ приложения к сети осуществлялся через локальный SOCKS5 прокси (localhost:7070 по умолчанию). Очень удобно.



Также имея несколько серверов / SSH - аккаунтов - поменять свой ip адрес оказывается буквально минутным делом. SSH сила =)

Подробно тут: http://with.in/bezopasnyj-syorfing-kak-obojtis-bez-vpn/
Сама программа называется MyEntunnel, скачать можно здесь: http://nemesis2.qx.net/software-myentunnel.php

четверг, июля 05, 2007

Исследования контекстной рекламы в Рунете от Яндекса

Наткнулся на интересный документ - Исследование контекстной рекламы в Рунете на Яндексе. (Новость, Полный текст исследования).

Самое главное - пишут что рынок контекстной рекламы постоянно увеличивается, (в четверо за 2006 год), что неудивительно - и давно обогнал рынок баннерной рекламы. Хитро намекают, что якобы именно они придумали контекстную рекламу (В 2001 - появился Директ, а Гугл Адсенс и Бегун только в 2002). Незнаю так это или нет.

Интересно: 43 % всех кликов в Рунете проиходит в Москве. Там же и самая высокая средняя стоимость клика - в 2-2.5 раза больше. Получается что Москва приносит больше 70 % всех доходов! Сразу вспомнился анекдот, что за МКАД'ом в России жизни нет. Также, если верить документу - больше 50 % всего рынка принадлежит Яндексу - странно, вроде визуально сайтов с Директом не так много.

среда, июля 04, 2007

пятница, июня 29, 2007

Море шепчет...

Как минимум раз в год нужно всё и всех отправлять нафиг и ехать куда-нибудь отдыхать. Пару дней назад приехал с женой с Болгарии. Золотые пески. Там хорошая погода, море народу, свежий воздух и чистое море. Море отлично промывает мозги, а свободное время позволяет отделить приоритеты от рутины, и понять, чем нужно заниматься дальше.



На пляже всё дорого, но шмотки дешёвые. Отель отличный. Всё включено. За две недели всё обошлось почти в 2 тысячи евро. На куроте больше всего немцев, потом англичан. Русских тоже хватает, но не то что бы очень много. Не понравились болгары. Все так и норовят наипать. Даже в макдональдсе. И почти каждом обменнике. Суки. Зажрались.

Всем кто собирается в болгарию - советую почитать отзывы о отелях в интернете. Некоторые отели с одинаковым количеством звёзд, отличаются друг от друга, как светлое небо и грешная земля.

Гугл знает всё =)

1 Удав = 38 Попугаев

среда, июня 06, 2007

Как я посадил аккумулятор в машине =)

Сегодня утром приехал на работу. Сажусь днём за руль - не заводится!
Оказалось, забыл выключить ближний свет.

Пришлось искать таксиста и запитываться от него, чтобы завестить и уехать =)

Fallout3

Ёпт, вышел первый трейлер FallOut3!



Всем смотреть. Fallout3 выходит осенью 2008.

вторник, мая 29, 2007

Маскируем скрипт - прикидываемся браузером

В PHP есть супермощный класс CURL - который позволяет полностью эмулировать соединения с различными параметрами. С помощью небольшого тюнинга можно добиться, что наш скрипт будет неотличим от браузера управляемым человеком.

Зачем это нужно? Опыт показывает, что, например, поисковые системы - скрипту эмулирующему браузер перекрывают кислород намного позже.

Чем браузер отличается от скрипта? Он передаёт строку юзер-агента, сохраняет и отдаёт куки, передаёт сточку реферера (адрес страницы откуда пришли) - мы будем делать то же самое.

Простейший способ использования CURL:

$url = "http://www.site.com";
$ch = curl_init(); curl_setopt($ch, CURLOPT_URL, $url);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);

$str = curl_exec($ch);

curl_close($ch);


Текст страницы оказывается в переменной $str - с ним потом можно делать всё что угодно.

Теперь тюнингуем наш простейший скрипт.

1. Добавляем сточку юзер-агента

$user_agent = "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; .NET CLR 1.1.4322)";
curl_setopt($ch, CURLOPT_USERAGENT, $user_agent);


Строчку юзер-агента можно вставить любого популярного браузера. Это - для Microsoft Outlook 6.0. Также браузер часто передаёт версию ОС и некоторые параметры - например тут версию .NET.

2. Если вызываем несколько страниц на сайте, сохраняем и отдаём куки


$cookie_file = " ..тут вставляем путь к файлу ..";
curl_setopt($ch, CURLOPT_COOKIEFILE, $cookie_file);
curl_setopt($ch, CURLOPT_COOKIEJAR, $cookie_file);


Многие сервисы "отсеивают" скрипты - устанавливая, а затем запрашивая переменную в куки. Путь к куки файлу должен быть полный. При запуске скрипта - желательно удалить файл куки, оставшийся от предыдущей работы скрипта. Также для файла сохраняющего куки, или для папки куда он сохраняется - должны стоять права на запись.

3. Передаём реферера.

Реферер - это адрес страницы, указывающий откуда пришёл пользователь, т.е. адрес страницы на которой была ссылка или форма, действие которой привело на текущую страницу.

curl_setopt($ch, CURLOPT_REFERER, "http://site.com");

Для чего это нужно? Некоторые сервисы могут его проверять и делать определённые выводы. Например, для парсинга страниц результатов поиска Google - можно установить реферер http://google.com - т.е. мы показываем наш эмулятор браузера - "пришёл" на страницу с результатами поиска с главной страницы.

4. Делаем небольшую паузу между запросами

Юзер не кликает страницы друг за другом, а просматривает их через определённое время, поэтому, в случае, если запрашиваем много страниц циклом - нужно обязательно вставить небольшую паузу.

sleep(5);

Также можно сделать случайную паузу, например от 2 до 10 секунд.

sleep( rand(2,10) );

5. Использование прокси

Чтобы совсем замаскировать следы - можно использовать прокси.

curl_setopt($ch, CURLOPT_PROXY, "111.222.333.444:5555");

Нужно удалять файл куки перед сменой прокси.


Инструкции для эмуляции браузера с использованием CURL получаются следующие:

$url = "http://www.site.com";
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, $url);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);

$user_agent = "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; .NET CLR 1.1.4322)";
curl_setopt($ch, CURLOPT_USERAGENT, $user_agent);

$cookie_file = " ..тут вставляем путь к файлу ..";
curl_setopt($ch, CURLOPT_COOKIEFILE, $cookie_file);
curl_setopt($ch, CURLOPT_COOKIEJAR, $cookie_file);

curl_setopt($ch, CURLOPT_REFERER, "http://site.com");
curl_setopt($ch, CURLOPT_PROXY, "111.222.333.444:5555"); //Прокси - если необходимо

$str = curl_exec($ch);
curl_close($ch);

...

sleep( rand(2,10) );

Как Обхитрить Гугл

Я вчера писал, что у меня возникли проблемы с использованием сервиса Google Translate. Я просто стал слишком много его использовать, ему это не понравилось. Как быть? Проект должен работать, проблему нужно решать быстро.

Решений такой проблемы может несколько. Самое первое, что приходит на ум - это использовать прокси. Но для этого нужно писать сборщик прокси, который ещё будет их ещё чекать (хоть такой скрипт у меня уже давно есть). Я решил сделать проще. Для этого воспользуемся знаниями о том, как устроен гугл. Гугл - это множество датацентров в разных частях света, в зависимости от того, где мы находимся, гугл эффективно манипулирует DNS - и мы получаем доступ к ближайшему или быстрейшему. Датацентры - это система в себе, которая содержит полностью поисковый кэш и все сервисы гугла.

Нам ничего не мешает обращаться к разным датацентрам. Для этого возьмём список датацентов, в каком-нибудь сервисе, которые показывают pr на разных датацентрах. (Например: http://digpagerank.com/). Вместо обращения к google.com - будем обращаться к случайному ip датацентра.

Получается вот такая PHP функция:

function RusEnTranslate($text) {

$text = iconv("windows-1251", "UTF-8", $text);

$ips = array("59.151.21.100", "64.233.161.18", "64.233.161.81", "64.233.161.84");
shuffle( $ips );

$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, "http://".$ips[0]."/translate_t");
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
curl_setopt($ch, CURLOPT_POST, 1);
curl_setopt($ch, CURLOPT_POSTFIELDS, 'hl=en&ie=UTF8&amp;langpair=ru|en&text='.$text.'&submit=Translate');
$str = curl_exec($ch);
curl_close($ch);

preg_match('/<div id="result_box" dir="ltr">([^<]*)<\/div>/isU', $str, $matches); return $matches[0]; } //func

Массив $ips - может содержать любое количество ip адресов датацентров. Аналогичный механизм можно использовать для парсинга поисковых результатов гугла.

Следующий пост напишу о том, как скрипту прикинуться пользователем и максимально эмулировать действия браузера управляемого человеком.

понедельник, мая 28, 2007

Google Translate стал блокировать своё частое использование

Сервис Google Translate стал, по-видимому, слишком популярен. Теперь при большом количестве запросов с одного ip, есть риск получить страницу "302 moved", и блокировку ip на определённый срок.

Блокировка появилась на днях, я два дня назад переводил позиции на английский с русского, скрипт успешно сделал 5000 запросов для перевода, сегодня сделать подобное уже не получилось =)

Лично я жду, когда гугл предложит использование Google Translate за деньги, например включит в Google Apps - чтобы можно было переводить без особых проблем, и использовать его автоматически в своих проектах.

воскресенье, мая 20, 2007

Отметил День Рождения



Солнце..
Любимая Жена..
Отличная Погода..
Шашлык..
Хорошие Друзья..
Мартини..
День Рождения...

Что может быть лучше? =)

пятница, мая 18, 2007

Повышение эффективности. Работайте меньше - получайте больше

Мощный пост в блоге Димка: http://blog.dimok.ru/10-luchshih-sposobov-sokratit-svoyu-rabochuyu-nedelyu. Реальные советы как повысить свою эффективность. В последнее время прихожу к этим же выводам и стараюсь изменить свой распорядок именно так.

1. Урезать рабочие часы. Определите себе конкретное количество рабочего времени в день и в неделю и во что бы то ни стало укладывайтесь в него. Вы обнаружите, что стали работать гораздо более продуктивно, поскольку дела теперь нужно завершить быстрее..

2. Работайте дома. Всё больше людей находят способы работать из дома, либо выполняя свои обычные обязанности при помощи телекоммуникационных средств связи, либо находя новую работу, которая не требует присутствия в офисе. Сам по себе этот шаг не уменьшит ваше рабочее время, напротив, может закончится тем, что работать станете еще больше. Нужно скомбинировать его с первым советом – ограничить рабочие часы дома и решительно поставить себя в жёсткие рамки режима.

3. Выделите определенное время для RSS и электронной почты. Не позволяйте себе быть доступным всему миру в любое время дня. Установите конкретное время, когда вы проверяете почту и отвечаете на неё, читаете RSS-фиды, прослушиваете голосовую почту, и соблюдайте эти ограничения. Вам совершенно ни к чему находиться на связи постоянно.

4. Повышайте концентрацию. Если хотите работать меньше, выполняйте свои задачи качественнее. Это означает – оставьте в покое идею многозадачности и концентрируйтесь на чём-то одном. Устраните все отвлекающие факторы, наведите вокруг себя порядок и сфокусируетесь на том, чем в данный момент заняты.

5. Ставьте временные ограничения. Закон Паркинсона гласит, что выполнение задачи затянется на столько времени, сколько будет доступно. Поэтому всегда лимитируйте время на конкретную задачу. Парадоксально, но работает. Дайте себе 30 минут, чтобы сделать нечто. Или час. Если задача слишком масштабна, чтобы выполнить за час, разбейте её на подзадачи и распланируйте уже их.

6. Делайте только большие задачи с большим результатом. Самые важные – это те, что дают наиболее существенный результат, чем бы он в вашей работе не измерялся. Всё остальное – это просто суета. Сфокусируйтесь на самых ключевых делах, которые имеют наибольшую ценность.

7. Отдайте в аутсорс всё остальное. Если задача или проект не обещают принести значительной прибыли, вам не надо их делать. Пусть делает кто-то, кто нуждается в работе. Будьте беспощадны, когда дело касается вашего времени – вам совершенно ни к чему тратить миллионы часов на работу.

8. Сократите свои обязательства. Возможно, вы слишком много на себя берете. Если пересмотрите обязательства, сможете сократить свою рабочую загруженность и количество времени, которого она требует.

9. Выключайте компьютер. Он – самый большой отвлекатель внимания из когда-либо изобретенных. Не позволяйте себе сидеть за компьютером постоянно – иначе никогда ничего не сможете закончить.

Бонусный совет: найдите способы получать пассивный доход. Это деньги, за которые не надо слишком много работать. Инвестиции, самодостаточный веб-сайт, бизнес, не требующий активного менеджмента с вашей стороны… это лишь несколько идей пассивной прибыли. Это потребует одноразового вложения капитала или времени, но, сделав один раз, вы будете получат стабильные деньги без необходимости для этого работать.
Оригинал тут: http://zenhabits.net/2007/04/top-10-ways-to-reduce-your-work-week/

Приходишь к этому не сразу - но вывод сначала обескураживает. Чтобы получать больше - нужно меньше работать. Работать нужно гораздо эффективней. Это как раз и становиться возможным, если уменьшить кол-во рабочих часов. А дальнейшее увеличение времени ничего не даст - только усталось, ухудшение производительности и топтание на месте. Это как закон бизнеса про 20 и 80 % - что 20 % бизнеса даёт 80 % прибыли и наоборот, в личной работе можно откинуть эти 80 % и заняться остальными 20 %.

P.s Блоггер научился сохранять черновики автоматически в процессе написания поста. Круто.

четверг, мая 17, 2007

Как вставить JavaScript в шаблоны Blogger'a

Редактировать шаблоны Blogger'а после его недавнего обновления, стало сложней. Если в шаблоне будет ошибка, он не будет сохраняться. Просто вставить JavaScript код (например Google Adsense, или редирект какой-нибудь) не получиться, чтобы шаблон сохранился, нужно его чуть модифицировать.

Вот например, для примера возьмём такой код - он выводит сообщение, и HTML код ссылки

<script language="'javascript'">
alert("Привет пепельница! Это 'работающий' JS код");
document.write('<a href="http://www.google.com/">Это код ссылки вставленный с помощью JS</a>');
</script>


Действия такие, открываем в меню Blogger'a вкладку Template, далее Edit HTML
В коде шаблона ищем место, куда мы хотим вставить JavaScript код (например перед ).

Затем меняем внутри тегов script, следущие символы:
одинарные кавычки на - &#39;
двойные кавычки на - &quot;
открывающую кавычку тега на - &lt;
закрывающую кавычку тега на - &gt;

Должно получиться вот так:

<script language='javascript'>
alert(&quot;Привет пепельница! Это &#39;работающий&#39; JS код&quot;);
document.write('&lt;a href=&quot;http://www.google.com&quot;&gt;Это код ссылки вставленный с помощью JS&lt;/a&gt;&#39;);
</script>


Вставляем, сохраняем, открываем блог, смотрим как работает =)
В коде вызова Google Adsense достаточно поменять двойные кавычки.

понедельник, мая 14, 2007

Повышение эффективности работы - баним локально бесполезные сайты

Так выходит, что несколько часов бесценного рабочего времени за компьютером тратится на серфинг по ненужным сайтам. Абсолютно бесполезное занятие. Это время тратится на просмотр, как правило, новостных сайтов - открыл почитать, свежие новости - и пошло поехало. По ссылкам можно ходить долго, благо сайтов и новостей в современном мире много и фантазия у журналистов безгранична. Подсчёт, таким образом потраченного времени - страшное занятие, становиться жалко за бесценно просерфенные (какое слово!) годы =) . Новости, конечно, иногда читать нужно, но рабочее время лучше потратить на зарабатывание бабла, а не на чтение написанного и сгенерированного контента.

Я поступил тупо, просто и чрезвычайно эффективно. Если у вас такая же проблема, советую поступить так же. Открываем файл с:\windows\system32\drivers\etc\hosts, и вписываем туда все ненавистные сайты.

Например,
127.0.0.1 www.newsru.com
127.0.0.1 newsru.com
127.0.0.1 www.lenta.ru
127.0.0.1 lenta.ru
и т.д.

Каждый раз, когда ваши пальцы автоматически наберут сайт из списка - вы увидите пустую страницу, и ваш разум проснется. А если у вас установлен Апач, то это вообще песня - можно вставить дефолтную страницу как у меня - "Работать, работать, работать!". Не поверите, но это работает.

P.s Забанить таким образом википедию, рука не поднялась =)

суббота, мая 12, 2007

WebMoney дружит с Firefox

Хорошая новость! Webmoney Merchant задружил с Firefox. Использую этот браузер чаще чем Explorer - а открывать новый браузер и логонится заново всегда напрягало

Самый простой способ заработать на своём сайте

Все мы знаем, какой бы ни был офигенный контент на сайте, его дизайн, оптимизация, регулярные обновления и прочая хрень, самое главное - это хорошие ссылки. Ссылки являются самым главным катализатором, только они могут запустить правильную "химическую реакцию", которая приведёт в итоге к посещаемости сайта и видимости в поисковиках.

Пока на сайт не будет хороших ссылок - по его страницам не будут ходить боты, плохо будут индексировать поисковые системы, и самое главное, на него будут редко заходить драгоценные и нужные юзеры.

В рунете раньше было всё достаточно просто. Основным инструментом для оптимизаторов, было прописывание по каталогам. Прописываем сайт в нескольких сотнях каталогов, и сайт получает вожделенный ТИЦ, и как следствие - какую то базовую прописку в Яндексе, дающую небольшой, но надёжный ручеёк юзеров. Быстро прописать сайт помогали разные автоматические сервисы - например 1ps.ru. Там можно было за 2 бакса и за пару часов прописать ресурс больше чем в тысяче каталогов.

Но времена меняются. Сейчас Яндекс не жалует каталоги, как раньше, и прописывание уже совсем не так эффективно. Сейчас от каталогов ТИЦ поднимается на пару десятков, а не сотен как раньше. Самым эффективным способом стала скупка ссылок с сайтов (c морд или внутренних страниц) близких по тематике. Всё это подняло спрос на ссылки. Свято место пусто не бывает, и появились различные автоматические сервисы для оптимизаторов. Вы вполне можете продавать ссылки с своего сайта и зарабатывать на этом.

Один из самых популярных автоматических сервисов - в котором участвует больше 10000 сайтов - SAPE.ru. Сервис развивается и достаточно удобен - и самое главное, это работает, за это платят деньги (можно выводить через веб-мани), и регулярно. На сайт нужно вставить PHP код, всё остальное сервис сделает за вас. Нужно только установить цены, после того как сервис проиндексирует все страницы.

Самое главное - заработок по продаже ссылок не зависит от вспышек на солнце, праздников, популяции скунсов в америке и прочих факторов, которые очень влияют на контекстную рекламу. Если вы наберёте ссылок - то из-за день в день будет капать одинаковая сумма. Тут только нужно, чтобы сайт был доступен целый день. У вас может быть малопосещаемый сайт, но если у вас на сайте высокий PR и ТИЦ - то заработок от продажи ссылок будет в несколько раз больше чем от Яндекса, Адсенса или Бегуна. К тому продажа ссылок - не заставляет убирать обычную контекстную рекламу.



Оптимизаторы сейчас голодные, и скупают ссылки просто пачками. Не стоит ставить очень низкие цены на ссылки - так их быстро скупят, но потом будет продавать нечего. Не забывайте, что много ссылок это тоже плохо, может уменьшиться PR и позиции сайта в поисковых системах. Я рекомендовал ставить цены чуть выше, чем средние - на 20-30 %, их всё равно купят, но не сразу, и уменьшить кол-во ссылок на главных страницах, не 10, а 6 или 8. Потом можно поднять чуть цены и открыть ещё по ссылке для продажи.

Например, у меня висит там два сайта, один из них с ТИЦ 200 и PR 4 - приносит около 5 $ в день. Это конечно совсем не густо, но сайт не коммерческий, давно уже не обновлялся, а сейчас полностью окупает хостинг, и даёт стимул для его дальнейшего развития (раньше там был ТИЦ >500). Сервис также можно использовать и для покупки ссылок - там это тоже всё очень удобно и быстро.

пятница, мая 11, 2007

Новый Google Analytics

Вот стал доступен новый интерфейс Google Analytics. Теперь сделано очень грамотно и удобно, а не через жопу, как раньше. Видно учли все пожелания от пользователей. Всё интуитивно понятно и просто и находиться там где нужно. Особенно порадовала вкладка "Источники трафика", в старом интерфейсы эти данные были достаточно сложно представлены для восприятия. Большинство данных можно представить в виде графиков и диаграмм (причём, нескольких типов) и сохранить в виде отчётов



Появились новые хитрые параметры, например "Лояльность пользователей", "Скорость подключения пользователей" (Интересно, что такое Лояльность?). Теперь Google Analytics стал действительно необходимой вещью, и по видимому, особенно с сочетании Google Adwords - статистика позволяет отследить буквально каждый вздох юзера, пришедшего по рекламе.

Тур по новым возможностям Google Analytics тут:
http://services.google.com/analytics/tour/index_ru-RU.html

Как поисковики понимают JS

Полезное исследование - наткнулся только сейчас.

http://www.seoweblog.ru/archives/54

Как поисковики понимают JavaScript. Авторы исследовали разные виды JS редиректа - и по их выводам, поисковики умеют выполнять и расшифровывать достаточно сложные редиректы состоящие из зашифрованных JS конструкций, но переходят по редиректам - если там используется объектная модель браузера - например, функции форматирования и обработки HTML на странице, функции обработки действий мышки и другие.

четверг, мая 10, 2007

Реикарнация

Вы не поверите, но после долгого перерыва, я решил вернуть этот блог к жизни и писать в нём дальше. О причинах столь странного поступка, мне самому точно известно, возможно из-за того, что вести блог полезно для поддержания собственной самодисциплинированности, с которой у меня небольшие проблемы.

Сразу новость.

Google Analytics через некоторое время предъявит новый интерфейс, остаётся надеяться, что он станет лучше. На данный момент, я считаю счётчик от liveinternet полезней, чем Google Analytics