Этот пример будет удобным, для тех, кто хочет узнать размер удаленного файла или веб страницы. Функция ниже принимает 3 параметра: URL, в случае паролированой страницы, имя пользователя и пароль.
CURL является отличным инструментом, для подключения к удаленным сайтам, что упрощает возможность отправки форм, загрузку целых страниц, или, как в нашем случае, загрузку файлов. В этом сниппете я покажу вам, как вы можете скачать файл прямо на диск с помощью CURL.
Недавно столкнулся с задачей удаления дублей записей из таблицы по определенному полю:
К примеру есть таблица page_table с полем page_url типа TEXT. И нам нужно уникализировать таблицу по этому полю, т.е. удалить дубли.
This is a JavaScript library that lets you easily implement user-friendly and customisable dragging and resizing of your page elements. You might want to use it as part of a web application -- it contains all you need for a lightweight "windowing" system. Features include:
Внедрил функцию сериализации форм непосредственно в JW и немного поколдовал с индикатором загрузки. Вот что получилось:
array2json is a PHP function that will convert the array given as its argument into a JSON string. The created JSON string will be returned. This is very useful in Ajax apps using JSON over XML. If you are using XML, you better off using xml2array() JavaScript function.
XML парсер на Javascript, принимает xml данные, возвращает массив.
Сбор и сериализация данных формы для последующей отправки с помощью AJAX
В PHP есть удобная функция которая печатает читабельную информацию о переменной, очень удобно с её помощью выводить внутреннее содержимое Array или Object. В JavaSript такой функции нет, но это не страшно, умельцами уже давно состряпан аналог:
JX небольшая, понятная, простая библиотека AJAX. Она поддерживает методы GET и POST. Умеет работать с возвращаемыми данными TEXT (простой текст) и JSON.
Прикупили сервак у Hetzner.de. Думаю возьму доп. IP заюзаю DNS как primary так и salve на одном серваке (знаю что это не правильно, но как выход можно было бы).
Но не тут-то было чтобы выбить у немцев доп.IP нужно потратить уйму нервов. Придумывать причину неодходимости доп. IP я всё-же не стал и решил идти другим путём.
Скрипт возвращает запрос по которому был переход на ваш сайт со всех известных поисковиков, поисковик и страницу выдачи на которой есть ваш запрос. (подерживаются поисковики yandex, google, rambler, yahoo.com, go.mail.ru, aport.ru, nigma.ru, search.com, live.com, msn.com, aol.com)
Скрипт позволяет собрать содержимое любой директории в zip архив для скачки. На его основе можно замутить пак. в реальном времени исходных кодов Вашей разработки.