NetLab · Rules · Torrent Tracker · Have a problem? · Eng/Rus | Help Search Members Gallery Calendar |
Welcome Guest ( Log In | Register | Validation ) | Resend Validation Email |
Pages: (2) [1] 2 > ( Show unread post ) |
http://p2p.lib.ru/ |
|
Posted: 28-11-2004, 04:38
(post 1, #326272)
|
||
Сварливый Мозг Клуба Group: Roots Posts: 22885 |
|||
|
Posted: 28-11-2004, 10:17
(post 2, #326304)
|
||
Мембер Group: Members Posts: 3076 Warn:0% |
У меня такое чуйство, что этим занимается BRMAIL При желании можно спросить и у самого root@p2p.lib.ru ... БТВ не совсем ясно зачем нужен выделенный сервер для книг,а вот что бы не помешало, так это индексации ослоссылок на книги |
||
|
Posted: 28-11-2004, 22:43
(post 3, #326459)
|
||
Сварливый Мозг Клуба Group: Roots Posts: 22885 |
Я тоже сначала подумал на BRMAIL, но потом очень быстро отказался от этой идеи. Во-первых, BRMAIL сделал-бы тут объяву. Во-вторых, он знает, что тысячи книг отдельными мелкими файлами в осла выкладывать бессмысленно. |
||
|
Posted: 28-11-2004, 23:10
(post 4, #326470)
|
||
Иной Group: Prestige Posts: 14584 Warn:0% |
что-то этот сервер в мула не добавляется |
||
|
Posted: 28-11-2004, 23:36
(post 6, #326486)
|
||
Сварливый Мозг Клуба Group: Roots Posts: 22885 |
а ты сделай поиск по htm или txt. Просто художественная литература очень редко бывает в pdf. This post has been edited by FiL on 28-11-2004, 23:37 |
||
|
Posted: 28-11-2004, 23:47
(post 7, #326495)
|
||
Иной Group: Prestige Posts: 14584 Warn:0% |
Billy Bonce поделись секретом как законектился? у меня этот сервер даже в список серверов не добавляется |
||
|
Posted: 29-11-2004, 00:01
(post 8, #326499)
|
||
Мембер Group: Members Posts: 3076 Warn:0% |
Дык никакого секрета здесь нет Кликнул по ссылке сервера- добавилось, поменял имя на (lib) ,кликнул-законнектился. FiL Поиск по "txt" делал, нашлось только пара серийников |
||
|
Posted: 29-11-2004, 01:08
(post 9, #326519)
|
||
Advanced Group: Members Posts: 375 Warn:0% |
Нет, это не я. Как раз практика показывает, что p2p в сегодняшнем виде не годится для раздачи маленьких файлов. Т.е для фильма в 700 мег нет проблем подождать пару дней, а для книги в 200 килобайт архива - не хотелось бы. К тому же сервера весьма негативно отностятс я к передачи им списка из например 10000 shared файлов. Я сенйчас пытаюсь что то придумать для обработки того, что мы уже накачали из сети. Собственно это десятки тысяч файлов. Многие из которых повторяются. Собственно хотелось бы иметь удобный поиск и софт для обработки этого огромного количесва файлов. |
||
|
Posted: 29-11-2004, 03:07
(post 10, #326537)
|
||
Сварливый Мозг Клуба Group: Roots Posts: 22885 |
|||
|
Posted: 29-11-2004, 03:46
(post 11, #326545)
|
||
Advanced Group: Members Posts: 375 Warn:0% |
Видимо был когда то, так как логин мой оно узнало В самом деле сеть хороша там где есть люди. Ну нужен мне файл - поднял я DC клиент, тырк, а скачивать то не с кого. А держать отдельный клиент поднятым только чтобы раз в неделю скачать новую книгу .... Ну как тебе сказать. Несуразно как то. Я вижу все же универсальную библиотеку не как единый распределенный набор файлов, групированных по книгам, или даже авторам, а как 5-10 гигабайтную бибилиотеку, лежащую архивом в сети, может быть несколькоими архивами по гигу например, снабженную поисковым движком, мало мальски удобным рубрификатором, и с периодически - раз в 3-6 месяцев выходящими обновлениями (собрать обновления это особая, реально сложная часть работы) Сейчас я большей частью ломаю себе голову как автоматизировать разгребание той кучи текстов что я уже скачал. Реальный размер более 10 гиг пакованной в зипы текстовки. Часть - уверен повторяются по 2-3-4 раза. Часть повторяется не в тексте а в каком либо rtf или doc формате. То как оно там внтури форматированно или не форматированно - еще особый разговор. В итоге даже имея список из трех четырех дублей - их же надо будет просмотреть глазищами перед тем как удалить... Короче мрак полнейшинй. Руками разгребать - недюженная воля к победе нужна. И куча времени. This post has been edited by BRMAIL on 29-11-2004, 03:58 |
||
|
Posted: 29-11-2004, 04:43
(post 12, #326549)
|
||
Сварливый Мозг Клуба Group: Roots Posts: 22885 |
Кстати, я не помню, я тебе уже говорил или нет - Максим выложил новый полный архив. Не битый. Я скачал, наложил на старый, наложил апдейты... все держу в этом самом DC. По поводу общей идеи - во первых, это таки не менее 10 Гигов, а если добавить нехудожественную литературу, то значительно больше. И у нее сразу возникнет 3 огромные проблемы. 1. Хостинг (у Максима траффик измеряется терабайтами). 2. выживаемость (уже кое-какие библиотеки прикрыли из тех, кто не захотел "сотрудничать"). 3. Обновления (нужен механизм при котором разные люди смогут добавлять нечто в библиотеку и при этом надо защитить библиотеку от несанкционированных изменений). Всему этому соответствует только р2р. А вот как организовать еще не знаю. Будем думать. |
||
|
Posted: 29-11-2004, 05:58
(post 13, #326554)
|
||
Advanced Group: Members Posts: 375 Warn:0% |
как, как - распостранять как привыкли, а хранить и использовать локально. И туда же локально наладить поиск. Я сейчас потихоньку общаюсь с автором поисковой проги Архивариус 3000 (К сожалению она платная) Если эту разработку досести до ума - она будет очень кстати. Уже сейчас она значительно гибче чем гугл десктоп. Вроде он согласился прикрутить поддержку fb2 . короче посмотрим. |
||
|
Posted: 29-11-2004, 06:53
(post 14, #326561)
|
||
Сварливый Мозг Клуба Group: Roots Posts: 22885 |
А как привыкли? По-моему литераторы никак не привыкли. И главное, никто не будет качать многомегабайтные архивы, если нужна одна книжка. И когда вышла новая книга, то она должна как-то появляться в сети. А не ждать следующего глобального апдейта. Ну и далее в таком разрезе. |
||
|
Posted: 29-11-2004, 09:31
(post 15, #326577)
|
||
Иной Group: Prestige Posts: 14584 Warn:0% |
проблема дублей решится с составлением базы данных. при скачивании каждой новой книги надо будет проверять нет ли ее в базе данных. |
||
Pages: (2) [1] 2 > |