>чем больше денег крутится в компании, чем сложнее инфраструктура, тем больше встаёт вопрос безопасности. И в этом плане облака где-то там вчистую >проигрывают.
Отнюдь. Чем больше инфраструктуры тем более актуальным встает вопрос правильного и рационального распределения ресурсов и тем более это финансово мотивированно. Если есть свой ДЦ — там будет свой приватный клауд, статически отдавать определенное количество железок под какие то задачи — прошлый век. К слову многие крупные компании отнюдь не чураются выносить свои вполне приватные данные и в EC2. И еще раз — облачные решения это отнюдь не значит выложить все наружу в интернет, это значит использовать динамическое распределение ресурсов ( в т.ч. аппаратных ) в зависимости от потребностей приложений.
основная парадигма cloud computing — resources on demand. это отнюдь не равно вынести все данные наружу, в веб, в aws или google docs. это вообще не имеет отношения к интернет. как то думать о клауд решении в данном случае имеет смысл если сервера почты загружены неравномерно и большую часть времени например простаивают — ок, делаем клауд ( внутри своего дц ) для обработки почты — днем когда загрузка большая в клауде у нас 10 почтовых серверов, ночью — один сервер. при повышении нагрузки добавляем почтовые сервера в клауд, при снижении — уменьшаем размер облака. клауд это архитектурное решение, а ЗИ вопрос требование к технической реализации из которого ест-ссно получаются определенные ограничения на архитектуру. Требования ЗИ можно обеспечить тем что например клауд будет приватный, либо обеспечить достаточно защищенный канал передачи данных наружу — что то поверх VPN.
ок, я имел в виду что в C передать внутрь можно все что угодно, также можно все что угодно вернуть — подводных и надводных камней при этом будет вагон и маленькая тележка. то что неверное определяемый тип возвращаемого значения может портить данные внутри вызываемой функции ( даже при правильных типов параметров ) всё таки логично — в момент формирования стека ( при вызове ) у компилятора неверное понимание его структуры.
то что конкуренты используют whois и немного ручной работы это факт. небольшой hint - полезно пройтись по данным icq - в профилях ipрегион очень даже встречается :-)
Удачи конечно в проекте - дело то полезное, но вот в одном проекте были люди которые занимались правильной обработкой whois, там еще и данные от оочень крупного провайдера были - по их оценкам ( и я с ними согласен ) точность определения региона была не более 80%, причем ресурс был популярный только в рунете и в основном как раз среди пользователей того самого провайдера. Мы пробовали ставить вместо своего таргетинга платные продукты - получалось сильно хуже, да и не может быть иначе - блин как узнать что человек зашел dialup-ом в таджикистане через mtu например, и что, он из москвы? у провайдера есть пул адресов он их по всей рф ( а то и за пределами ) распределяет как хочет и никому об этом не говорит ( сорм решает конечно ). и таких пользователей которые приходят от крупных провайдеров - вагон и маленькая тележка, с заграницей там отдельная песня.
Кстати есть и открытые дополнительные источники :-)
Сделать продукт и заявить что можем сделать это здорово само по себе, но блин сделать геотаргетинг в рамках всего мира на основе whois это ни разу не открытие америки - таких продуктов много, хотя все они и далеки до совершенства ( как раз потому что на 95% процентов основаны на whois ). Многие крупные порталы ( те самые которым и нужен этот геотаргетинг ) обладают возможностью доступа к дополнительным источникам данных которые значительно улучшают геотаргетинг. Основная мысль - что даже хорошо обработанный whois с подключением разных доп источников данных не дает достаточно хорошего качества определения региона ( не говоря уже об городе ). Ценность же самого по себе хорошо обработанного whois имхо совсем невысокая, поэтому насчет конкурентного продукта в этом плане есть немало подводных камней.))))
база whois это конечно здорово, но вообще whois + дополнительные источники ( например от провайдеров, какие то другие источники где можно сопоставить ip и регион ) - всё это во первых на 100% корректно автоматически не обрабатывается - некая ручная работа нужна, во вторых точность определения региона даже в случае ручного премодера и избавления от упячки, и подключения баз ip от дружественных провайдеров не превышает 80% случаев. У баз основанных только на whois точность еще меньше.
>В конце недели пригласили работать в компанию Голден-Телеком. Красивое здание бизнес-центра в >центре города, под офис был выделен целый этаж.
У голдена под офис выделен целый комплекс зланий на кожевническом валу. есть еще другие офисы,
но hr сидит именно на павелецкой ( это я к тому что гт - это огромная махина с "поголовьем" в десятки тысяч , а не просто этаж в центре мск ).
не знаю, чего не понравилось - значит не было других позиций раз фигню предложили. то что голову морочили ну бывает, это нормально.
а вообще в голдене та часть hr которая занимается охотой за головами очень неплохая. по крайней мере им кого то удавалось в голден эпизодически заманивать.)
Отнюдь. Чем больше инфраструктуры тем более актуальным встает вопрос правильного и рационального распределения ресурсов и тем более это финансово мотивированно. Если есть свой ДЦ — там будет свой приватный клауд, статически отдавать определенное количество железок под какие то задачи — прошлый век. К слову многие крупные компании отнюдь не чураются выносить свои вполне приватные данные и в EC2. И еще раз — облачные решения это отнюдь не значит выложить все наружу в интернет, это значит использовать динамическое распределение ресурсов ( в т.ч. аппаратных ) в зависимости от потребностей приложений.
// a.c
#include
struct S {} a;
struct S f(void)
{
printf(«hello world\n»);
return a;
}
// b.c
#include
int main()
{
int a = 1, b = 2;
f(«what's up?»);
printf(«a = %d, b = %d\n», a, b);
return 0;
}
при этом возвращаемым значением будет int —
struct D {} d;
d = f(«what's up?»);
будет давать ошибку
error: incompatible types when assigning to type ‘struct D’ from type ‘int’
Сделать продукт и заявить что можем сделать это здорово само по себе, но блин сделать геотаргетинг в рамках всего мира на основе whois это ни разу не открытие америки - таких продуктов много, хотя все они и далеки до совершенства ( как раз потому что на 95% процентов основаны на whois ). Многие крупные порталы ( те самые которым и нужен этот геотаргетинг ) обладают возможностью доступа к дополнительным источникам данных которые значительно улучшают геотаргетинг. Основная мысль - что даже хорошо обработанный whois с подключением разных доп источников данных не дает достаточно хорошего качества определения региона ( не говоря уже об городе ). Ценность же самого по себе хорошо обработанного whois имхо совсем невысокая, поэтому насчет конкурентного продукта в этом плане есть немало подводных камней.))))
У голдена под офис выделен целый комплекс зланий на кожевническом валу. есть еще другие офисы,
но hr сидит именно на павелецкой ( это я к тому что гт - это огромная махина с "поголовьем" в десятки тысяч , а не просто этаж в центре мск ).
не знаю, чего не понравилось - значит не было других позиций раз фигню предложили. то что голову морочили ну бывает, это нормально.
а вообще в голдене та часть hr которая занимается охотой за головами очень неплохая. по крайней мере им кого то удавалось в голден эпизодически заманивать.)