Skip to main content

Posts

Showing posts from April 5, 2011

La puissance de calcul et de stockage de l'information , données dans les nuages

Le concept d'informatique dans le nuage est comparable à celui de la distribution de l'énergie électrique.
De ce fait,de plus en plus, les entreprises, les administrations... n'ont plus besoin de serveurs propres, mais confient cette ressource à une entreprise qui leur garantit une puissance de calcul et de stockage à la demande.
Selon les approches des entreprises, se distinguent trois formes de cloud computing :
les clouds privés internes,les clouds privés externes,et les clouds publics.Cette notion est regroupée par les Anglo-saxons sous le vocable « elastic computing capacity ». Le National Institute of Standards and Technology en a donné une définition succincte qui reprend ces principes de base.

Le cloud a émergé principalement pour répondre aux exigences de continuité de service et de qualité du service. Pour approcher ces résultats, des travaux ont été fait et des méthodes ont été trouvées dans tous les niveaux impliqués dans l'établissement d'un servi…

Lumière sur le principe générale du web sémantique

Le Web sémantique est entièrement fondé sur le Web et ne remet pas en cause ce dernier. Le Web sémantique s'appuie donc sur la fonction primaire du Web « classique » : un moyen de publier et consulter des documents. Mais les documents traités par le Web sémantique contiennent non pas des textes en langage naturel (français, espagnol, chinois, etc.) mais des informations formalisées pour être traitées automatiquement. Ces documents sont générés, traités, échangés par des logiciels. Ces logiciels permettent souvent, sans connaissance informatique, de :
générer des données sémantiques à partir de la saisie d'information par les utilisateurs ;agréger des données sémantiques afin d'être publiées ou traitées ;publier des données sémantiques avec une mise en forme personnalisée ou spécialisée ;échanger automatiquement des données en fonction de leurs relations sémantiques ;générer des données sémantiques automatiquement, sans saisie humaine, à partir de règles d'inférences.…

empêcher tous les robots sauf Googlebot d'accéder à un dossier en particulier de votre site web

L'usage de robots.txt permet d'éviter que des ressources sans intérêt public se retrouvent dans la page de résultats d'un moteur de recherche. En outre, le fait que les robots n'accèdent pas à ces ressources allège le travail du serveur HTTP et le trafic sur le réseau informatique.
Il est important de comprendre qu’il ne s’agit là que d’une indication sur ce que doivent faire les robots bienveillants, ce n’est en aucun cas un élément de sécurité. En effet, certains robots ignorent ce fichier, soit délibérément parce qu’ils cherchent des informations privées (des adresses électroniques par exemple, pour y envoyer du courrier indésirable), soit parce que le robot est trop simple pour gérer ce standard.
Pour empêcher tous les robots sauf Googlebot d'accéder à un dossier en particulier,
User-agent: * Disallow: /forum User-agent: googlebot Disallow: by taatjene

fully cracked Apple’s latest iPhone OS update, iOS 4.3.1(2011)

While this particular jailbreak is nowhere near as simple as the first iPhone 4 hack from last year, which merely required that you visit a webpage on your iPhone’s browser, the process still isn’t that difficult. You just need to upgrade your iPhone, iPad 1, or iPod Touch to iOS 4.3.1 using iTunes, apply the Redsnow hack to the update, then restore your phone using the tweaked update.
Performing a jailbreak is easy enough at this point to warrant the effort, since it will allow you to access excellent apps like Notify that offer features Apple doesn’t. In fact, I’ve grown so used to the freedom allowed by jailbreaking that I find it impossible to use my iPhone without hacking it.by taatjene, from venturebeat.com

Autoriser et tous les robots à accéder à tout le site

L'usage de robots.txt permet d'éviter que des ressources sans intérêt public se retrouvent dans la page de résultats d'un moteur de recherche. En outre, le fait que les robots n'accèdent pas à ces ressources allège le travail du serveur HTTP et le trafic sur le réseau informatique.
Il est important de comprendre qu’il ne s’agit là que d’une indication sur ce que doivent faire les robots bienveillants, ce n’est en aucun cas un élément de sécurité. En effet, certains robots ignorent ce fichier, soit délibérément parce qu’ils cherchent des informations privées (des adresses électroniques par exemple, pour y envoyer du courrier indésirable), soit parce que le robot est trop simple pour gérer ce standard.
En exemple:
Autoriser tous les robots à accéder à tout le site :User-agent: * Disallow: Empêcher tous les robots d'accéder au site :User-agent: * Disallow: / by taatjene

Lumière sur une interface en Perl permettant de créer des filtres.ta

Sendmail::Milter is a Perl module for writing mail filters in Perl that work with sendmail's mail filter API.
I wrote this module in an effort to make it easier for people to write mail filters for sendmail; there are a lot of cool things you can do with this API.
DocumentationFull user documentation comes with the distribution.
An on-line HTML version of the user documentation is available from Source Forge.
Downloading Sendmail::MilterSendmail::Milter is available for download as a tar.gz file.
Further InformationComments and suggestions can be sent directly to me, Charles Ying, or posted in one of the forums on the Sendmail::Milter project home page. by taatjene