Реклама на сайте Advertise with us

Облачное хранилище статики - $50 на счет при регистрации

Расширенный поиск по форуму
 
Новая тема Новая тема   
Автор
Поиск в теме:



С нами с 03.02.09
Сообщения: 139
Рейтинг: 235

Ссылка на сообщениеДобавлено: 21/05/13 в 14:49       Ответить с цитатойцитата 

Предлагаем услуги облачного хранилища данных, созданного по образу и подобию Amazon S3, поддерживается большая часть функций S3 API.
Цены в 3-4 раза ниже чем у ведущих облачных хранилищ.
Хранение данных: $0.06 за гигабайт/месяц
Передача данных: $0.04 за гигабайт исходящего трафика, входящий бесплатно.

http://www.s3for.me/promo/may.html

Сервера расположены в Европе. К оплате принимаем PayPal

2
 



С нами с 08.02.03
Сообщения: 10558
Рейтинг: 5961


Передовик Master-X (01.06.2018) Передовик Master-X (16.06.2019) Передовик Master-X (01.04.2020) Передовик Master-X (16.04.2020) Передовик Master-X (16.10.2021) Ветеран трепа Master-X (01.11.2021)
Ссылка на сообщениеДобавлено: 21/05/13 в 17:06       Ответить с цитатойцитата 

К оплате тока пейпал?

0
 



С нами с 03.02.09
Сообщения: 139
Рейтинг: 235

Ссылка на сообщениеДобавлено: 21/05/13 в 17:36       Ответить с цитатойцитата 


Пока да, если нужно будет, подключим и другие сервисы, оставляйте отзывы/пожелания. PayPal покрывает сразу и кредитки, поэтому его подключили в первую очередь.

0
 

маниакально- депрессивный псих

С нами с 21.02.09
Сообщения: 1445
Рейтинг: 860

Ссылка на сообщениеДобавлено: 21/05/13 в 18:43       Ответить с цитатойцитата 

iRoot писал:
подключим и другие сервисы, оставляйте отзывы/пожелания

у меня пейпала нет, а вот epeyservices был бы очень даже кстати

CDN from $0,8/Mbps - от адванседов

0
 



С нами с 03.02.09
Сообщения: 139
Рейтинг: 235

Ссылка на сообщениеДобавлено: 21/05/13 в 19:06       Ответить с цитатойцитата 

paranoik.death писал:
у меня пейпала нет, а вот epeyservices был бы очень даже кстати

ePayService выпускает Master Card карты, если у вас есть такая карта, то можете оплатить ePayService через PayPal
При оплате через PayPal есть 2 варианта:
"Pay with my PayPal account" - при наличии PayPal акканута
"Pay with a debit or credit card" - при отсутсвии аккаунта оплата напрямую картой, правда полей прийдется заполнять кучу, но возможность есть. Я лично так оплачивал картой Payoneer

-1
 



С нами с 19.05.08
Сообщения: 1894
Рейтинг: 3625


Передовик Master-X (16.06.2010) Передовик Master-X (01.07.2010) Передовик Master-X (16.07.2010) Передовик Master-X (16.05.2011) Передовик Master-X (01.07.2012) Ветеран трепа Master-X (16.07.2012)
Ссылка на сообщениеДобавлено: 22/05/13 в 10:45       Ответить с цитатойцитата 

С запуском!!! Пишем скрипты для Бекапа и к вам.
Кстати может уже есть вами писанные скрипты, по бекапу конкретной папки? А может ещё и инкрементарному бекапу?

P.S. : на старый как 50 баксов кидаете? :-)

1
 



С нами с 03.02.09
Сообщения: 139
Рейтинг: 235

Ссылка на сообщениеДобавлено: 22/05/13 в 11:18       Ответить с цитатойцитата 

xp-ViT писал:
С запуском!!! Пишем скрипты для Бекапа и к вам.
Кстати может уже есть вами писанные скрипты, по бекапу конкретной папки? А может ещё и инкрементарному бекапу?

P.S. : на старый как 50 баксов кидаете? :-)

Спасибо, запустились уже давно, до этого не было менеджера по продвижению, только сейчас появился, сразу акцию предложил провести.
В разделе документации есть описание как настроить s3cmd, эта штука умеет загружать/скачивать и синхронизировать данные по подобию rsync, в двух словах чтобы синхронизировать локальную папку с хранилищем нужно запустить:
s3cmd sync /local/path/ s3://BUCKET_NAME/remote/path
Права доступа сохраняются в расширенных аттрибутах. Но есть большой минус - памяти жрет огромное количество, поскольку создает полностью локальный и удальенный список файлов, сравнивает их в памяти и потом разницу синхронизирует. На 800к файлов съедает около 2-ух Гб памяти.
В планах есть написание своего скрипта, но конкретных сроков нет.
Еще существует ограничение на максимальный размер файла в 2Гб, но его скоро не будет - сейчас завершаем работу над Multipart API, который позволит загружать файлы частями и ограничений не будет, хоть 10 Тб одним файлом грузите.
Сообщите свой email в ЛС, добавлю $50 на счет.

0
 



С нами с 16.12.09
Сообщения: 126
Рейтинг: 188

Ссылка на сообщениеДобавлено: 22/05/13 в 12:51       Ответить с цитатойцитата 

как цдн можно использовать под отдачу видео?

0
 



С нами с 03.02.09
Сообщения: 139
Рейтинг: 235

Ссылка на сообщениеДобавлено: 22/05/13 в 13:08       Ответить с цитатойцитата 


Хранилище на распределено как CDN по миру, расположено в нескольких ДЦ, находящихся рядом. Но видео отдает без проблем, есть поддержка Partial Content, что делает возможным HTTP Live Streaming. Поддержки RTMP, псевдостриминга в данный момент нет.
Есть клиенты, которые используют хранилище именно для отдачи видео-контента.
Некоторые используют лишь как хранилище, подключая сверху еще и CDN чтобы увеличить скорость отдачи по всему миру.

0
 



С нами с 03.02.09
Сообщения: 139
Рейтинг: 235

Ссылка на сообщениеДобавлено: 23/05/13 в 16:07       Ответить с цитатойцитата 

Хотел обратить внимание что существует возможность подключить свой поддомен к хранилищу и обслуживать запросы напрямую с него.
Для этого нужно назвать корзину (bucket) точно так же как и поддомен, например sub.domain.com и в DNS прописать CNAME этого поддомена на rest.s3for.me
Это очень удобно, но мало кто этим пользуется, в документации в личном кабинете описано подробней.

0
 



С нами с 03.02.09
Сообщения: 139
Рейтинг: 235

Ссылка на сообщениеДобавлено: 19/06/13 в 14:22       Ответить с цитатойцитата 

Закончили работы по Multipart API, теперь можно загружать файлы практически любого размера частями.

Идут работа над собственной утилитой для работы с хранилищем на подобии s3cmd
Из особенностей:
- сама по размеру файла определяет как его загружать - обычным способом или частями
- при загрузке частаями если какая-либо из частей не загрузилась или контрольная сумма не совпала, то автоматически повоторяет загрузку
- умеет загружать потоки, т.е. можно создавать например резервные копии MySQL таким образом:
# mysqldump -u root -p --all-databases | gzip > s3for.me stream s3://bucket/dump.sql.gz
не создавая при этом дополнительной нагрузки на HDD, записывая файл сначала на него
- при синхронизации структуры каталогов не создает полное дерево в памяти, а лишь одну директорию, что сущесвенно уменьшает потребеление памяти
- синхронизация каталогов происходит в многопоточном режиме, что существенно ускоряет ее

Пока код сырой, в открытом доступе его нет, принимаем пожелания к функциональности.

0
 

www.phpdevs.com

С нами с 24.10.02
Сообщения: 16633
Рейтинг: 16105


Передовик Master-X (01.09.2005) Передовик Master-X (16.09.2005) Передовик Master-X (01.10.2005) Передовик Master-X (16.08.2006) Передовик Master-X (16.10.2006) Ветеран трепа Master-X ()
Ссылка на сообщениеДобавлено: 19/06/13 в 16:35       Ответить с цитатойцитата 

Как считается место, по пиковой занятости ?
Т.е. у меня есть бакап весом 1 гиг. Заливаю его к вам. Скажем через неделю мне надо его обновить, т.е. сначала заливаю новую копию, и потом уже удаляю старую.
Как будет расчитано в результате, 1 или 2 гигабайта ?

Пишу на php/mysql/django за вменяемые деньги.
Обращаться в личку.

0
 



С нами с 03.02.09
Сообщения: 139
Рейтинг: 235

Ссылка на сообщениеДобавлено: 19/06/13 в 16:44       Ответить с цитатойцитата 

Stek: биллинг рассчитывает потребленные ресурсы и снимает деньги со счета раз в час, если в этот промежуток вы успели удалить файл, то он не будет засчитан вовсе. Все по честному на сколько это возможно.
Стоимость за час вычисляется так: $0.06 / (дней в месяце * 24)
Так что внутри системы используется цена за час в реальности, в отчетах за месяц уже будет отображено среднее значение использованных ресурсов.

1
 



С нами с 25.05.03
Сообщения: 247
Рейтинг: 448

Ссылка на сообщениеДобавлено: 19/06/13 в 18:28       Ответить с цитатойцитата 

ну по идее биллинг должен возвратить деньги с предедущего часа, поскольку в последующий стало мешьше данных, разве не так? или за последующий час насчитать меньше, судя по формуле, я правильно понимаю?

0
 



С нами с 03.02.09
Сообщения: 139
Рейтинг: 235

Ссылка на сообщениеДобавлено: 19/06/13 в 18:36       Ответить с цитатойцитата 

Franko: не совсем - каждый час снимается плата в размере стоимости хранения данных за прошедший час, если при следующем запуске биллинга через час данных уже не будет, то оплата браться не будет.
Стоимость часа хранения одного гигабайта данных в этом месяце будет
$0.06 / (30*24) = $0.00008333333333
Конечно, не очень хорошо получается если пользователь загрузил данные в 59 минут, а с него взяли как за час, но тут уже чисто технические сложности. В отместку он их может удалить за минуту до наступления следующего часа и этот последний час будет бесплатным icon_smile.gif

0
 



С нами с 25.05.03
Сообщения: 247
Рейтинг: 448

Ссылка на сообщениеДобавлено: 19/06/13 в 19:32       Ответить с цитатойцитата 

это и имелось ввиду, если я бекаплю 50гиг раз в двое суток, удаляя предедущий бекап после залития последующего, то один или два часа будет считаться за 100гиг, т.е применительно к деньгам 29суток по 50гиг + сутки за 100гиг.

Но есть вопрос что там вообще будет храниться?
Мы все знаем ситуации с файл хостингами и наездами на них, возможно кто-то будет юзать как ЦДН для стриминга голливудских мувиков и т.д.
Как это вообще регулируется, если вообще.
Остаться без бекапов, это всеравно что пойти на блядки без гондонов.

0
 



С нами с 03.02.09
Сообщения: 139
Рейтинг: 235

Ссылка на сообщениеДобавлено: 19/06/13 в 19:54       Ответить с цитатойцитата 

Franko: погрешность в +/- 1 час при расчетах присутствует, от этого к сожалению не уйти. Где-то будет насчитан лишний час, где-то на час меньше. Но обычно файлы только заливаются, удаляются редко - стоит оно дешево, а вдруг когда понадобится.
Еще по опыту хочу сказать что загружать/удалять постоянно по 50 гигабайт будет довольно проблематично, скорость загрузки будет порядка 2-6 мегабайт в секунду, это связано с тем что система распределенная и каждая порция данных должна быть записана надежно на несколько серверов одновременно чтобы данные были согласнованы. Лучше всего использовать инкрементные резервные копии, они гораздо меньше.
Все же основной упор при разработке системы был на быстрое чтение, а не на запись, поскольку применяется она в системах отдачи контента - тумб, картинок, документов и т.д. И использование этой системы как раз отменяет необходимость в частом резервном копировании, поскольку данные хранятся надежно одновременно на трех серверах в двух датацентрах.

По поводу того что там хранится - а там хранится очень много всего, иногда приходят жалобы от правообладателей, эти жалобы перенаправляются пользователям, которые залили данный контент с просьбой удалить, либо обоснованно опровергнуть жалобу. В крайнем случае корзина с этим контентом блокируется. Пока что пользователи сами все удаляли без вопросов.
Приоритетом всегда будет бесперибойная работа сервиса, поскольку сами там очень много чего храним и не в наших в первую очередь интересах чтобы работа прерывалась.

0
 



С нами с 03.02.09
Сообщения: 139
Рейтинг: 235

Ссылка на сообщениеДобавлено: 18/10/13 в 12:31       Ответить с цитатойцитата 

- Добавили новые сервера, увеличили емкость и скорость хранилища
- Увеличили совместимость с Amazon S3 API, добавили больше функций
- Появилась возможность размещать статические сайты так же как это позволяет делать Amazon S3, но поскольку сервера в Германии adult-сайты под ограничениями
- Идет работа над первым нормальным дизайном сайта, раньше все никак руки не доходили
- Закончилась промо-акция, теперь при регистрации не $50, а только $1 на счет, но для теста этого с головой должно хватить

В целом очень довольны выбранным подходом и архитектурой, работает очень здорово и предсказуемо, будем и дальше добавлять новую функциональность и расширять мощности по мере необходимости.

0
 
Новая тема Новая тема   

Текстовая реклама в форме ответа
Заголовок и до четырех строчек текста
Длина текста до 350 символов
Купить рекламу в этом месте!


Перейти:  



Спонсор сайта

Реклама на сайте Advertise with us

Опросы

Рецепт новогоднего блюда 2022



Обсудите на форуме обсудить (11)
все опросы »