Home Actualités

Ressources

 

INFO

The News
Actualitée PDF Imprimer Envoyer
Écrit par Administrateur   
Mercredi, 17 Août 2011 10:43
..
 
Actualités PDF Imprimer Envoyer
Écrit par Moses K   
Mercredi, 01 Avril 2009 03:12

 

forum lf

 Lancement du Forum mondial de la langue française

Le Forum mondial de la langue française, qui aura lieu dans la ville de Québec (Canada Québec) du 2 au 6 juillet 2012, a été lancé le 5 octobre au cours d’une conférence de presse au siège de l’OIF à Paris par Abdou Diouf, Secrétaire général de la Francophonie, et Jean Charest, premier ministre du Québec.

Un des objectifs du Forum est de mettre en évidence à la fois le caractère universel de la langue française et son inscription dans des réalités et des pratiques modernes auxquelles les populations, particulièrement les jeunes, trouvent intérêt et plaisir.

Les activités du Forum s’articuleront autour de quatre pôles : économie, travail et éducation, références culturelles, nouvel univers numérique et diversité linguistique.

Le Forum proposera aux centaines de participants provenant de tous les continents des échanges et des réflexions portant sur les enjeux relatifs à la place et à l’avenir du français.

À l’heure de la mondialisation et de la standardisation commerciale, vivre et s’épanouir en français relèvent-t-ils de l’utopie ?

Le volet festif du Forum occupera une part importante de la programmation : non seulement les activités prévues contribueront-elles à dynamiser les échanges, mais elles s’inviteront comme autant de vitrines témoignant de la richesse des expressions culturelles francophones.

En savoir plus :

 source: auf.org


ivfe

Recrutement de la 4ème promotion de l’Incubateur virtuel de la Francophonie pour l’Entrepreneuriat

Date limite : 4 novembre 2011

Le 1er octobre 2011, l’Incubateur virtuel de la Francophonie pour l’Entrepreneuriat a ouvert ouvrira l’inscription à son parcours de création d’entreprise

 

Public concerné :

·         Les étudiants de 2ème ou 3ème du cycle universitaire

·         Les enseignants-chercheurs,

·         Les professionnels expérimentés résidant dans un des pays de la francophonie.

Processus de recrutement :

L’admission se fait sur concours. Le concours d’admission comporte deux étapes :

Etape 1 : Sélection sur dossiers

Chaque candidat doit s’identifier en ligne sur notre site toile : www.ivfe.auf.org Il doit aussi renseigner un formulaire de candidature.

La sélection sur dossier est ensuite faite par un jury composé d’universitaires et de professionnels.

La liste des candidats présélectionnés sera publiée le 4 novembre 2011 sur le site de l’IVFE.

Etape 2 : Entretien de sélection

Vers mi-novembre, les candidats admissibles sont convoqués à un entretien par visioconférence.

Le jury d’entretien est composé d’universitaires et de professionnels mauriciens.

Les résultats définitifs seront publiés le 6 décembre 2011 sur le site de l’Institut.

Informations et dossier de candidature :

Adresse Internet : www.ivfe.auf.org

Inscription en ligne : http://www.ivfe.auf.org/__Parcours-Creation-IVFE-Candidature.php

 Source: auf.org

 

 

 

google appsGoogle Appllications For Education

Google propose aux enseignants la possibilité de créer un espace numérique de travail (ENT)  spécifique pour l'éducation, indépendant comprenant un ensemble d'applications personnalisables (messagerie, agenda, espaces de stockage et partage de documents, services de sécurité, etc.), Toutes ces applications sont gratuites, personnalisables, sans publicité.

Elles permettent une collaboration et un apprentissage efficaces au sein des établissements scolaires (primaire et secondaire) et favorisent la communication et la productivité des élèves.

 Principales fonctions de Google Apps :

  • Communication – Favorisez le dialogue au sein de votre communauté avec une messagerie hébergée, le partage des agendas et un chat vidéo intégré.
  • Collaboration – Avec Google Documents et Google Sites, les élèves et leurs professeurs peuvent partager des documents en ligne, quels que soient l'heure et le lieu.
  • Infrastructure et sécurité – Intégrez Google Apps dans vos systèmes informatiques existants en toute simplicité, en préservant la sécurité de votre domaine.

Les 10 arguments de Google pour convaincre les équipes éducatives :

·         1. Les étudiants vous remercieront

D'après les établissements d'enseignement, si les étudiants pouvaient choisir leur solution de messagerie, ils opteraient en majorité pour Gmail.

"Il y a environ un an, nos étudiants nous ont demandé d'améliorer les services de messagerie électronique et de collaboration. En fait, leurs délégués nous ont clairement demandé d'installer Google Apps." - Wendy Woodward, directrice des services d'assistance technologique, Université du Northwestern

·         2. Votre service informatique sera moins accaparé

Donnez à votre service informatique la possibilité de se consacrer aux activités à valeur ajoutée plutôt que de s'occuper de la disponibilité des services de messagerie.

"Google Apps nous a déchargés de l'obligation d'assurer des services tels que la gestion d'un système de messagerie et d'agenda pour que nous puissions nous concentrer sur le cœur de notre activité : fournir davantage de ressources pour mieux accompagner les enseignants, les étudiants et les chercheurs." - Todd Sutton, vice-directeur adjoint responsable des services applicatifs de l'Université de Caroline du Nord, Greensboro.

·         3. Déployer Google Apps est un jeu d'enfant

Aucun logiciel à installer ni matériel à acheter : pour démarrer, il vous suffit de valider vos enregistrements MX et de créer vos comptes. Pour rendre l'intégration possible dans les systèmes en place, nous avons choisi des normes ouvertes et créé toute une série d'API ; nous pouvons également vous orienter vers des solutions Open Source pour les intégrations courantes et vers nos partenaires agréés qui sauront vous orienter dans le déploiement de Google Apps.

"Nous avons vainement tenté pendant des mois d'installer une nouvelle solution de messagerie Web hébergée avant de nous tourner vers Google Apps. Quelques heures ont suffi pour que nous soyons prêts à travailler avec le nouveau système." - Jhonny Oliveira, responsable informatique, Université de Lisbonne

·         4. Vous allez économiser

En vous reposant sur Google pour la maintenance des serveurs, vous libérez des ressources qui auraient été consacrées à l'achat de licences et de mises à niveau supplémentaires.

"Notre équipe informatique a compris qu'elle devait se concentrer sur des solutions d'entreprise stratégiques pour nous aider à atteindre nos objectifs pédagogiques, et non se cantonner à la supervision de services tels que la messagerie électronique. Si nous n'avions pas adopté la solution Google, nous aurions dû augmenter les frais de scolarité de manière significative." - Eric Hawley, vice-président adjoint pour la technologie de l'université d'Utah

·         5. Vous n'êtes pas seuls

Des milliers d'universités ont opté pour Google Apps et vous font partager leur expérience. Venez discuter avec d'autres utilisateurs sur le forum de la communauté Google Apps for Education, ou lisez et regardez nos études de cas.

·         6. Google protège votre confidentialité

Pour Google, la confidentialité est essentielle. Toute notre activité repose sur la confiance que nos utilisateurs nous accordent, qu'il s'agisse de la sécurité de leurs données, ou de la confidentialité des informations qu'ils placent sur nos systèmes. Les données ne sont pas communiquées à des tiers et sont utilisées de manière appropriée. Pour plus d'informations, lisez notre FAQ sur la confidentialité, consultez le Centre de confidentialité et découvrez de quelle manière nous avons résolu les problèmes de confidentialité des données de nos utilisateurs par le passé.

·         7. La sécurité que nous vous offrons est à l'image de Google : fiable

Le niveau de sécurité dont bénéficient les clients Google Apps est aussi élevé que celui appliqué à la protection de www.google.com. Pour preuve, nous utilisons Google Apps au sein même de la société.

"Nous savons que Google Apps répond aux besoins des entreprises les plus exigeantes, tout simplement parce que notre entreprise est très exigeante. Google est une société internationale aux facettes multiples, évoluant dans un secteur en constante mutation et ultra-concurrentiel. Google Apps sous-tend toutes nos activités. Pour atteindre ce degré d'adoption par l'entreprise, la barre à franchir était haute. En d'autres termes, si Google Apps a répondu à nos attentes, il répondra également aux vôtres." - Ben Fried, directeur informatique et vice-président de l'ingénierie, Google

·         8. Vous bénéficiez des innovations en temps réel

Pour préparer vos étudiants aux toutes dernières technologies utilisées sur le marché du travail, quoi de mieux que de leur en faire profiter dans le cadre de leurs études ?

"La réaction de la communauté universitaire a été extrêmement positive, car nous collaborons désormais avec des experts à la pointe de la technologie qui comprennent que nous cherchons à offrir les innovations technologiques les plus récentes." - Roy B. Roberti, directeur de la planification des technologies de l'information, Université Hofstra

·         9. Vous pouvez collaborer partout dans le monde

Nous avons conçu une application de traitement de texte, nommée Google Documents, qui vous permet d'accéder à un document tout en autorisant plusieurs personnes à l'utiliser simultanément, où qu'elles se trouvent dans le monde.

"Collaborer sur des projets communs est une excellente expérience pour des étudiants, d'abord parce qu'elle permet un échange fructueux d'idées et qu'elle améliore les qualités rédactionnelles de chacun, mais aussi parce que le processus lui-même leur apprend à travailler efficacement avec les autres. C'est un atout précieux pour tout le monde." Richard Ellwood, Coordinateur des technologies et Professeur d'art numérique, Collège et lycée Columbia Secondary School

·         10. Nous sommes là pour vous aider

Vous avez besoin d'aide ? Nous sommes toujours présents via notre Centre d'aide, le groupe de discussion Google Apps for Education ou directement aux numéro de téléphone et adresse e-mail indiqués dans votre tableau de bord d'administrateur.

Plus d'informations ici :   http://www.google.com/a/help/intl/fr/edu/index.html

source: tice-education.fr

 

viadéo3 guides d’utilisation de Viadeo

Le réseau social professionnel Viadeo propose 3 guides d’utilisation (en pdf) librement téléchargeables pour mieux connaître, découvrir et apprendre à utiliser ce service en ligne dans le cadre d’une recherche d’emploi ou d’opportunités professionnelles :

Guide Viadeo d’utilisation de Viadeo (84 pages) : Tableau de bord ; Bien gérer son profil ; Bien gérer son réseau ; Groupes ; Communautés ; Evénements ; Offre d’emploi/Formation ; Questions ; Actualités ; Applications Viadeo ; Abonnements.

Guide Viadeo d’utilisation hubs et communautés (15 pages) : Rechercher une communauté ; L’accès à la communauté ; Inscription à un hub ; Créer son hub ; Modérer ses hubs.

Guide Viadeo animateurs de communautés (25 pages) : Administrer la communauté ; Animer sa communauté.

source: netpublic.fr

géogebraGéoGebra - Le logiciel de mathématiques libre et multi-plateformes

GeoGebra est un logiciel libre et multi-plateformes de mathématiques pour tous les niveaux d'éducation (primaire, secondaire, supérieur) et d'une grande simplicité d'utilisation.

  • Il est utilisable en ligne ou disponible en téléchargement.
  • Il réunit géométrie, algèbre, tableur, graphiques, statistiques notamment.
  • Il a reçu plusieurs récompenses pour les logiciels éducatifs en Europe et aux USA.

Quelques points :

  • Graphiques, algèbre et tableur sont liés et complètement dynamiques ;
  • Interface conviviale avec beaucoup de fonctionnalités ;
  • Outil d'édition pour créer des outils d'apprentissage interactifs comme des pages web ;
  • Utilisable dans beaucoup de langues pour nos millions d'utilisateurs dans le monde;
  • Logiciel libre et "open source".

graphe

Plus d'informations ici : http://www.geogebra.org/cms/fr

open office impressOpenOffice Impress 3.3.0 : guide d’autoformation en accès libre

La plate-forme collaborative Claroline (Classroom online) nommée SoftEnPoche propose un guide d’autoformation sur la Présentation assistée par Ordinateur "OpenOffice Impress" : Ce tutoriel en ligne sur le logiciel de PréAO OO.org Impress est le second de la série sur la suite bureautique libre OpenOffice.org.

Ce module de formation est consultable gratuitement en ligne. Il est présenté sous la forme de séquences courtes d’apprentissage rappelant fonctions

Au sommaire du module :

·         Impress 3.3.0

·         L'environnement de travail

·         Créer une nouvelle présentation

·         Modifier une présentation

·         Mettre en forme une présentation

·         Les modèles

·         Utiliser une présentation

·         Configurer OO.org Impress

Ce tutoriel a pour but de vous aider à utiliser, sous Windows, le logiciel de PréAO (Présentation Assistée par Ordinateur), intégré à la suite bureautique OpenOffice.org, qui permet de réaliser facilement des diaporamas pour illustrer des conférences, présenter des projets ou des produits. Il s'agit d'un travail personnel dépourvu de tout caractère officiel.

Ce module a été créé par Guy Waterval, partagé en licence GNU 1.3.

Plus d'informations ici : http://www.softenpoche.com/sep/impress/index.html

 logo_infobourg Les jeux en classe, c’est du sérieux (dossier pédagogique)

Les jeux en classe, c’est du sérieux! C’est le titre d’un nouveau dossier proposé au Canada conjointement par l’Infobourg et Carrefour Education, sous la coordination de Julie Beaupré. Il est téléchargeable gracieusement à cette adresse en pdf (9 pages).

Ce projet rassemble notamment des articles déjà publiés par l’Infobourg. Il traite de la question des jeux sérieux (serious games) dans un contexte pédagogique – ces jeux d’apprentissage de plus en plus en vogue – et interroge sur leur plus en terme d’apprentissage. Les jeux sérieux y sont présentés dans leur diversité. Le dossier indique de nombreuses références en ligne pour approfondir ses connaissances sur l’univers des serious games.

Au sommaire :

  • Du jeu aux jeux sérieux,
  • Les jeux sérieux, qu’est-ce que c’est ?
  • Mais encore ?
  • Ce qu’ils ne sont pas…
  • Au Québec, prend-t-on les jeux au sérieux ?
  • Est-ce plus drôle ailleurs ?
  • Le plaisir d’apprendre, mais encore ?
  • Pourquoi les jeux sérieux ne sont-ils pas plus répandus ?
  • Trouver des jeux sérieux, un jeu d’enfant!
  • Initiatives québécoises.

logo_larousse 10 dictionnaires Larousse en accès gratuit 

La société d’édition Larousse, bien connue pour ses dictionnaires et encyclopédies, a décidé de mettre en ligne via sa rubrique Archives, un accès gratuit à quelques ouvrages (anciens) de référence pouvant être utiles aux internautes dans le cadre d’une recherche de mot, d’information ou de biographie. L’ensemble de ces éditions figurent à cette adresse : http://www.larousse.fr/archives . Sont déjà disponibles :

 OpenOffice Writer 3.3.0 : guide d’autoformation en accès libreimage_ooffice

La plateforme à distance SoftEnPoche propose un guide d’autoformation au module de traitement de texte Writer de la suite bureautique libre OpenOffice : « Découvrir OO.org Writer 3.3.0 » créé par Guy Waterval, partagé en licence GNU 1.3 et actualisé en avril 2011.

Consultable gratuitement, le guide d’autoformation « Découvrir OO.org Writer 3.3.0 » est présenté sous la forme de séquences courtes d’apprentissage rappelant fonctions et procédures techniques pour maîtriser OpenOffice 3.3. Il assure une progression dans l’apprentissage.

Au sommaire :

  • Introduction
  • L’interface du programme
  • Les commandes
  • Rédiger du texte
  • Modifier du texte
  • Zones de texte spéciales
  • Mettre le texte en forme
  • Les styles
  • Les modèles
  • Les tableaux
  • Les formulaires
  • Les illustrations
  • La correspondance
  • Les longs documents
  • Personnalisation
  • Annexes

Au sein des annexes, on repère 4 exercices avec une série de textes à copier/coller dans un nouveau document Writer pour pouvoir expérimenter les diverses fonctionnalités du logiciel décrites dans le guide d’autoformation : orthographe, positionner image, paragraphe, long document.

Il est aussi proposé des notions de base concernant l’utilisation du clavier et de la souris.

logo_brumathFacebook, Twitter, MSN : tutoriels et présentations (par la FCPE de Brumath)

L’association de parents d’élèves FCPE de Brumath (Bas-Rhin) propose sur son blog plusieurs supports de présentation et tutoriels sur l’utilisation des réseaux sociaux et d’outils collaboratifs, ceci dans le cadre d’une formation délivrée en janvier 2011 à l’IUT d’Illkirch. Ces documents pédagogiques sont avant tout didactiques (avec textes et captures d’écran), conçus pour des novices en ayant soin de s’attacher à la maîtrise des données personnelles et du paramétrage des profils et des informations à échanger sur ces médias. Si ces support invitent à la présence sur les réseaux sociaux, ils n’en constituent pas moins des repères pour porter une analyse critique et citoyenne quant à leur utilisation responsable.

Facebook

Tutoriel Facebook (21 pages, pdf) : créer un compte Facebook ; optimiser son profil ; un profil Facebook 100% sécurisé

Le réseau social Facebook : présentation (14 pages, pdf) : chiffres, lexique, amis, invitation, chat, gérer ses photos, gérer sa liste d’amis, créer et gérer votre groupe, créer un évènement

Twitter

Tutoriel Twitter : l’outil n°1 du microblogging (7 pages, pdf) : définition, création d’un compte en quelques clics, publication des messages dits « tweets », trouver des contacts et suivre des abonnements

Twitter : présentation (6 pages, pdf) : qu’est-ce que Twitter, le profil, le paramétrage, le tweet

MSN – Windows Live Messenger

Tutoriel Windows Live Messenger (6 pages, pdf) : création de compte, télécharger MSN, fonctionnalités et statut, options

MSN, Windows Live Messenger : présentation
(6 pages, pdf) : principaux outils proposés, fonctionnalités, affichage

facebook

 Mieux se servir de Facebook : dossier thématique

 Mieux se servir de Facebook, une des questions de notre temps. La section High Tech du portail L'Internaute.com consacre un dossier au réseau social Facebook : Mieux se servir de Facebook en s’attachant aux fonctions de paramétrage du profil et à la gestion d’un compte ainsi qu’à différentes fonctions du réseau social : invitations, groupes et applications. Les questions des données privées sont également évoquées.

Mieux se servir de Facebook se veut un dossier porté sur le côté pratique (astuces et conseils) avec une entrée vers 7 articles concrets thématisés :

education 2.0

Les meilleures pratiques de l'éducation 2.0


Réalisée à partir des articles publiés sur Thot Cursus depuis 12 ans, l'étude «Les meilleures pratiques de l'éducation 2.0» propose une analyse réflexive sur l'état actuel des pratiques et de l'utilisation des TIC en éducation.

Cette étude à été commandée par l'équipe MeTAH du Laboratoire d'informatique de Grenoble (LIG) et rédigée par Christine Vaufrey, rédactrice en chef de Thot Cursus. Elle a été présentée dans le cadre des Rencontres d'Autrans 2011

Cette étude est accompagnée :

Télécharger

source: thot cursus 

mac

Débuter sur Mac, un site pour découvrir et s’initier à l’univers Macintosh

Il n’y a pas que le PC comme ordinateur… Pour les EPN (espaces publics numériques ) , les CRM (Centres de Ressources Multimédias ), les animateurs multimédia et les personnes équipées de Macintosh, trouver une aide sur Internet concernant l’univers Apple pour les débutants n’est pas des plus aisés.

Le site Débuter sur Mac est l’un des portails ressource pratique pour découvrir non seulement le monde Macintosh du côté du système d’exploitation, du fonctionnement général de la machine mais également l’utilisation de logiciels phares de l’univers Mac.

L’approche choisie par Débuter sur Mac est efficace : chaque logiciel, fonction, astuce, thématique est explicitée sous forme d’une fiche texte avec de courtes vidéos et captures d’écran. La page d’accueil affiche les thèmes les plus populaires traitées par ces fiches : du PC au Mac ; Je débute ; Coups de coeur logiciels ; Final Cut Express ; Time Machine ; Utilitaire de disque ; iMovie ; Freewares…

mobilite

 Votre adolescent et le téléphone mobile. Guide à l’usage des parents

L’Association Française des Opérateurs Mobiles (AFOM) publie une édition révisée du guide «Votre adolescent et le téléphone Mobile. Guide à l’usage des parents» avec le soutien du Secrétariat d’Etat chargé de la Famille et en partenariat avec la Délégation aux usages de l’Internet (DUI). Ce guide gratuit de 52 pages est librement téléchargable en pdf à cette adresse.

Si 82% des Français tous âges confondus possèdent un téléphone mobile, les 15-17 ans sont quant à eux équipés à 97%* de cet outil de sociabilité qui fait désormais partie intégrante de leur vie quotidienne. (* selon un enquête TNS Sofres – AFOM d’août 2010)

Très fourni en informations, conseils, exemples de bonnes pratiques et de chiffres-clés, le guide grand public «Votre Adolescent et le Téléphone Mobile. Guide à l’usage des parents» propose de parcourir trois grands thèmes :

  • «Avoir un téléphone mobile» : Des conseils pratiques pour l’équipement mobile pour les adolescents : Quand lui permettre d’accéder à son premier téléphone mobile ? Quel type de terminal choisir ? Quel type d’offre privilégier ?…) et des réponses aux questions que les parents peuvent se poser sur les ondes radios et la santé,

  • «Utiliser le mobile de façon responsable» : Des règles de savoir-vivre et de bonne conduite pour une utilisation responsable et citoyenne de son téléphone mobile,

  • «Réagir face aux petits et gros accidents» : Des conseils pour prévenir les situations «à risque» et les actions à mener pour protéger son adolescent d’éventuelles mauvaises rencontres ou d’une éventuelle escroquerie,

En outre, il comprend «L’Abécédaire du mobile», lexique de plus 50 mots de l’Internet mobile : De 2G à Virus en passant par Code PUK et Ping Call.

Comment se procurer le guide «Votre Adolescent et le Téléphone Mobile. Guide à l’usage des parents

« L’AFOM prévoit une diffusion de 100 000 exemplaires du guide» . Celui-ci est téléchargeable gratuitement en pdf.

Pour recevoir des exemplaires papier de ce guide gratuitement, préciser une adresse postale et le nombre d’exemplaires souhaités sur : Cette adresse email est protégée contre les robots des spammeurs, vous devez activer Javascript pour la voir.

source netpublic


sécurité réseaux sociaux

Sécurité sur les réseaux sociaux, un dossier Educa.ch

Educa.ch, Serveur suisse de l’Education, vient de publier un dossier thématique fort pertinent (en coordination avec la Prévention Suisse de la Criminalité – PSC) intitulé «Sécurité sur les réseaux sociaux» agrégeant des articles et conseils pour le personnel éducatif, les enfants et les médiateurs multimédia.

Alors que l’accès et les pratiques à des réseaux sociaux, médias sociaux tels que Facebook, Netlog ou MySpace sont de plus en plus appréciés par les adultes et les adolescents, bien des questions se posent sur la protection de la vie privée, la notion d’identité en ligne et la divulgation d’informations personnelles.

Les éléments communiqués dans ce dossier reprennent des points de l’actuelle campagne de sensibilisation des autorités suisses : «Netlog, Facebook & Co: sûr et certain!» s’adressant aux jeunes, parents et responsables de l’éducation.

Ce mini-guide en ligne s’intéresse à une situation initiale décrite brièvement, avant de développer 4 messages centraux (L’Internet n’oublie jamais rien ; Les informations circulent et peuvent être transformées en un rien de temps ; L’expérience virtuelle est aussi une réalité ; Sur Internet, on n’est jamais «rien qu’entre soi») associés à des thèmes centraux (Cyber-intimidation ; Abus sexuel sur Internet ; Cyberaddiction). Pour chacun de ses termes, le dossier propose des ressources Internet explicitant, décryptant et conseillant les publics cibles. Utile et concret!

Enfin, une sitographie sur la Prévention internet offre des pistes d’information et de quoi construire des séquences et ateliers en Espaces Publics Numériques (EPN) ou Centres de Ressources multimédias (CRM).

 source: netpublic

 La "contrefaçon" d'antivirus, nouvelle menace sur Internet

antivir

Les logiciels antimalware frauduleux, qui se font passer pour des logiciels de sécurité, connaissent une croissance alarmante. Autre hausse : celle du nombre de sites d'hameçonnage.

Internet fait face à des menaces toujours plus nombreuses et diverses, révèle une enquête de l’APWG* réalisée auprès de ses membres. Celle-ci note la croissance des antimalware frauduleux, ces programmes qui se font passer pour des logiciels de sécurité dans le but d’infecter leurs utilisateurs. D’après l’étude, ils auraient connu une hausse supérieure à 500 % entre janvier et juin 2009. Le premier trimestre de cette année a ainsi vu plus de créations de ce type de logiciels que durant l’ensemble de l’année 2008. "L’explication principale de cette inflation de nouvelles variantes est de rendre plus difficile la tâche des antivirus", explique Luis Corrons, directeur technique chez PandaLabs.

Le phishing, une pratique courante

Autre tendance inquiétante : après une légère baisse en février, le nombre de sites d’hameçonnage est reparti à la hausse pour s’approcher de cinquante mille sites détectés. Un chiffre qui reste néanmoins inférieur au plus haut historique, enregistré en avril 2007 (plus de cinquante cinq mille plates-formes). Le nombre de marques légitimes concernées par ces attaques a d’ailleurs atteint un pic en mars, avec plus de trois cents fraudes référencées. Ce chiffre a heureusement décru par la suite. D’après le rapport, les secteurs les plus concernés par ces extorsions d’identité sont les services de paiement en ligne (entre 40 et 50 %), suivi par les sites financiers (plus de 30 %).

Les sites de paiement en ligne les plus ciblés

Les sites de ventes aux enchères sont aussi affectés, quoique de manière plus marginale. L’étude pointe également du doigt les pays hébergeant ces sites frauduleux. Les Etats-Unis conservent la tête de ce classement, suivis par la Suède et la Chine. A noter que ces chiffres sont très variables d’un mois sur l’autre. La Suède, par exemple, qui hébergeait jusqu’en juin moins de 10 % des sites frauduleux a vu ce taux dépasser les 45 % par la suite. L'étude a été présentée dans l’optique d’une conférence sur le crime électronique.

  • Anti-Phishing Work Group, une association réunissant plus de 1800 entreprises et agences gouvernementales

Source: Atelier.fr


Afrique : le succès du m-paiement a besoin d'équipes sur le terrain


mpaie

La banque sur mobile continue à se développer sur le continent. L'un des enjeux sera la capacité des acteurs à déployer des réseaux solides d'agents sur place chargés de sensibiliser et d'aider les populations.

En Afrique, ce ne sont pas tant les technologies de communication en champ proche (NFC) qui populariseront le paiement mobile, mais plutôt le déploiement d'équipes humaines sur le terrain, constate ABI Research. Dans l'étude "Mobile banking, P2P and bill payments", les analystes soulignent ainsi l'importance que va prendre dans les prochaines années les services dits P2P - de personne à personne. Pour les chiffres : en 2009, environ neuf millions de personnes souscrivaient à ce type d'option. En 2015, ce nombre devrait dépasser les 96 millions, affirment les consultants.

Déployer des agents sur le terrain

Les services P2P reposent sur la présence d'agents se rendant sur place pour permettre aux populations locales de bénéficier de diverses opérations bancaires personnalisées. En les assistant ou en leur fournissant un support matériel. Via leur mobile, les individus peuvent effectuer des virements ou consulter leurs comptes, par exemple. Selon les analystes, le Kenya est l'un des pays pionnier en la matière, sur le continent. Mais de nombreux autres pays commencent à mettre en place ce type de dispositif. "Le vrai défi aujourd'hui consiste à déployer les réseaux d'agents suffisants pour rendre ces services fonctionnels", expliquent les consultants.

Des différences structurelles

Ces derniers rappellent une différence majeure entre les pays industrialisés et les pays en développement. "Ici, les services bancaires sur mobile ne sont pas une simple extension des services en ligne",note Neil Strother, responsable de l'étude. "D'ailleurs, dans les pays en développement, les infrastructures bancaires conventionnelles sont très limitées. Et, très souvent, les services P2P sont offerts par des fournisseurs qui n'appartiennent pas au secteur bancaire", conclut-t-il.

Source: Atelier.fr


Le Bureau de l’UNESCO à Bangkok publie un guide régional sur les TIC dans l’éducation

Le Bureau de l’UNESCO à Bangkok publie un guide régional sur les TIC dans l’éducation
Le guide «ICT Transforming Education: A Regional Guide» est destiné aux enseignants, aux formateurs d’enseignants, aux directeurs d’école et aux coordonnateurs de projets TIC de la région Asie-Pacifique. En s’appuyant sur les bonnes pratiques et les leçons tirées des expériences passées, cette nouvelle publication a pour ambition de donner aux lecteurs les compétences et les ressources dont ils ont besoin pour utiliser les TIC.

Ce guide régional rassemble les connaissances acquises par le Bureau de l’UNESCO à Bangkok à partir d’une vingtaine de projets de TIC dans l’éducation entrepris dans la région. Il est illustré de “cas d’école” rédigés par des enseignants et des formateurs d’enseignants innovants, qui montrent comment les TIC sont utilisées pour transformer les pratiques éducatives.

Les douze chapitres du guide forment plusieurs grands volets interdépendants :

  • Les chapitres 1 à 3 décrivent les fondements des TIC dans l’éducation, en essayant de répondre aux questions suivantes : Qu’est-ce que les TIC ? Quel est leur impact sur l’école, l’enseignement, l’apprentissage et le monde du travail ? Quelles nouvelles compétences doivent avoir les élèves pour vivre au XXIe siècle ?

  • Les chapitres 4 et 5 présentent des cadres et des modèles qui permettent de mieux comprendre ce qu’englobe l’enseignement électronique et décrivent le processus d’intégration des TIC à l’école.

  • Les chapitres 6 et 7 examinent l’encadrement des élèves dans les environnements d’apprentissage par les TIC et les moyens disponibles pour évaluer l’efficacité de l’utilisation des TIC dans l’éducation.

  • Les chapitres 8 à 11 présentent des outils TIC pour l’enseignement électronique ainsi que les ressources et applications prêtes à l’emploi pour les écoles des pays en développement.

  • Le dernier chapitre fait une synthèse de ces différents volets en s’intéressant au soutien que l’on peut apporter aux enseignants pour les aider à transformer l’éducation.

Ce guide régional est publié dans le cadre du projet de l’UNESCO sur les TIC dans l’éducation entrepris par le Bureau de Bangkok. Une version papier est disponible pour les enseignants et formateurs d’enseignants des pays en développement qui ne peuvent pas se connecter régulièrement à Internet. Un portail en ligne a été créé pour les personnes qui ont accès à Internet.

Le projet sur les TIC dans l’éducation a permis à plus de quarante établissements d’enseignement de devenir des centres locaux de ressources et de formation. Les centres recevront des exemplaires du nouveau guide et d’autres ressources développées par le Bureau de l’UNESCO à Bangkok, pour les distribuer aux enseignants. Ils vont également organiser au moins un atelier par an.

La nouvelle publication est disponible en téléchargement gratuit
ici.

Source unesco.org


La mobilité fragilise-t-elle la sécurité des données ?


mobilité

La multiplicité des appareils permettant de travailler en dehors des locaux de l'entreprise, et des modes de connexion rend plus facile l'accès aux réseaux. Et le vol éventuel d'informations.

Près de 70 % des menaces pour la sécurité des données des entreprises viennent de l'intérieur, rappelle une équipe du Tata Institute of Fundamental Research en Inde. En grande partie par des employés (actuels ou anciens) ou des partenaires qui ont accès aux réseaux et serveurs de l'entreprise. Et selon les chercheurs, les opportunités de vol ont augmenté au fur et à mesure de la généralisation de l'utilisation des appareils mobiles (ordiphones, PC portables, iPad…), de la diversité des réseaux de connexion (Wi-Fi, 3G…) et des solutions dans les nuages permettant un accès aux données en tout lieu. Pourquoi ? Parce que cette fragmentation rend plus difficile la sécurisation des informations. Et rend caduque une approche traditionnelle dédiée à la sécurisation du périmètre informatique et des ordinateurs installés en interne. Un constat un peu alarmiste et à nuancer. Quoi qu'il en soit, pour réduire les risques, les chercheurs appellent les entreprises à mettre en place une politique de sécurité dédiée à chaque terminal et chaque réseau.

Le mobile, porte d'entrée vers le réseau professionnel

Ils préconisent l'utilisation de solutions comme les systèmes de contrôle d'accès au réseau (NAC), de prévention des fuites de données (DLP) ou encore de faire appel à des dispositifs d'alerte censés atténuer et bloquer toute activité considérée comme néfaste et prévenir les responsables informatiques. Dans le détail, les scientifiques rappellent que les salariés utilisent de plus en plus des appareils de communication leur permettant de travailler en situation de mobilité. Le problème, c'est que ces combinés stockent non seulement des données sensibles dans leur mémoire, mais disposent aussi d'un accès au réseau. Devenant par là même une source de divulgation d'informations, intentionnellement ou non. Selon les chercheurs, il est aussi possible de défier les infrastructures de l'entreprise pour transmettre aisément de l'information.

Pirater sans maîtrise informatique particulière

Cela en utilisant des applications comme BitTorrent dédiées au partage de fichiers - légaux ou non - qui disposent de techniques permettant d'outrepasser les systèmes de sécurité. Comme en utilisant des ports TCP type envoi de courriels ou FTP.Les scientifiques expliquent également qu'il est possible de se procurer sur le web des outils comme des enregistreurs de frappe permettant, sans connaissance informatique particulière, de pirater les mots de passe de bureaux, de bases de données ou de serveurs. Au-delà de ces risques online, "d'autres outils - telles que les clés USB - demeurent un moyen courant, facile et à la porté de tous", notent les auteurs du rapport.

* New frontiers of network security

source: Atelier.fr


vif

VOLONTARIAT INTERNATIONAL DE LA FRANCOPHONIE - 2010 (ViF)

Sous l’impulsion d’Abdou Diouf, Secrétaire général de la Francophonie, et adopté par le XIe sommet des chefs d’états (Bucarest, 2006), le programme de volontariat international de la Francophonie a été expérimenté avec succès sur la période 2007-2009

Ce programme mis en œuvre par l’OIF offre aux jeunes la possibilité de participer au développement des sociétés par le biais du volontariat. Ce programme est mené en partenariat avec l’Agence universitaire de la Francophonie (AUF), avec le soutien de l’Association internationale des maires francophone (AIMF) et de TV5 Monde.

Présentation

Valeurs du volontariat international de la Francophonie

Critères d'éligibilité

Modalités de candidatures et inscription

Examen et étapes de sélection

Documents à télécharger

Le volontariat en quelques chiffres

Vos questions les plus fréquentes

Postulez au Volontariat international de la Francophonie

PRÉSENTATION DU PROGRAMME

Le programme du Volontariat international de la Francophonie est destiné à offrir aux jeunes francophones la possibilité de:

  • s’engager durant 12 mois à mettre leurs compétences à disposition d’un projet auquel ils vont participer, et de vivre une expérience de mobilité internationale au sein de l’espace francophone qui s’intègrera à leur parcours professionnel.

  • contribuer au développement des pays francophones dont notamment ceux du Sud, d’Europe centrale et orientale.

Déployés sur les cinq continents, les volontaires s’engagent à œuvrer dans les domaines d'actions privilégiés de la Francophonie:

  • la promotion de la langue française et de la diversité culturelle et linguistique,

  • la promotion de la paix, de la démocratie et des droits de l’Homme,

  • l’éducation, la formation et la culture,

  • l’appui au développement durable et à la solidarité,

  • les NTIC pour la réduction de la fracture numérique,

  • le renforcement des capacités locales en développement économique, social et culturel.

En fonction des projets identifiés, les Volontaires internationaux de la Francophonie peuvent être affectés au sein d’une structure d’accueil francophone, située dans un des 56 Etats et gouvernements membres de la Francophonie.

Une cinquantaine de volontaires seront sélectionnés chaque année sur la période 2010-2013.

Le présent appel à candidatures pour la sélection de 50 nouveaux volontaires est ouvert jusqu’au jeudi 4 novembre 2010.



VALEURS DU VOLONTARIAT INTERNATIONAL DE LA FRANCOPHONIE

Le volontariat est avant tout un acte d’engagement personnel et désintéressé de jeunes francophones qui, pour une durée déterminée, offrent leurs compétences dans un domaine d’activité précis, au profit d’un projet de la Francophonie.

Qu’est ce qu’un «ViF»?

Un Volontaire International de la Francophonie «ViF» est un jeune diplômé, homme ou femme, qui a acquis dans le cadre de ses études des compétences avérées dans son domaine de formation. Il est animé d’un désir d’apprentissage et de partage.

Il s’engage, durant 12 mois, exclusivement de tout autre engagement et de manière désintéressée, au service d’un projet de la Francophonie.

Il doit faire preuve d’ouverture, de responsabilités, d’initiatives, de réelles capacités d’adaptation et d’autonomie dans le respect de la culture de ses interlocuteurs et du pays d’accueil. Un volontaire n’est ni un stagiaire, ni un salarié de l’OIF, ni de la structure d’accueil qui le reçoit.

Le volontariat constitue donc pour le volontaire francophone une opportunité de mettre à contribution des savoirs récemment acquis afin de:

- se confronter aux particularités de la vie professionnelle;
- partager et acquérir des savoir-faire et savoir-être dans un contexte culturel différent.

Parce qu'il (elle) est bénévole à plein temps, le volontaire n'est pas soumis aux règles sur le droit du travail ni au Statut et Règlement du Personnel de l'OIF mais il perçoit une indemnité mensuelle de subsistance. Cette indemnité lui permet de se loger et de vivre décemment sur son lieu d'affectation. Il bénéficie d'une assurance santé, d'une assurance rapatriement sanitaire et d'une responsabilité civile «vie privée». L'OIF assure également le transport aller-retour entre son pays d'origine et le pays d'affectation. Les assurances sont souscrites par l’OIF et sont soumises à conditions.

Qu’est ce qu’une structure d’accueil d’un V.i.F.?

Une structure d’accueil partenaire partage les valeurs et les principes de la Francophonie.

Elle fait partie du réseau de partenariat de l’OIF, des opérateurs (AUF, AIMF, TV5 Monde, Université Senghor) et des institutions (CONFEMEN, CONFEJES, APF) de la Francophonie.

L’organisation qui a recours aux services d’un volontaire, s’engage à:

- manifester un réel intérêt pour accueillir, accompagner et favoriser l’échange d’expérience avec le volontaire qui apportera sa participation dans la réalisation des activités du projet;

- encadrer le volontaire, lui confier des tâches à la hauteur de ses qualifications et de son expérience.


CRITÈRES D'ÉLIGIBILITÉ

Le (la) candidat(e) sera sélectionné(e) sur la base de ses compétences dans son domaine

d'intervention, de sa motivation et selon les critères suivants:

  • Etre âgé(e) entre 21 et 34 ans au moment du dépôt de la candidature.

  • Avoir la majorité légale dans son pays d'origine et dans le pays d'accueil.

  • Etre reconnu(e) médicalement apte.

  • Avoir la nationalité de l'un des 56 Etats ou Gouvernements membres de la Francophonie et résider sur le territoire de cet Etat ou Gouvernement.

  • Etre titulaire d'un diplôme universitaire ou équivalent.

  • Etre en règle avec les lois et l'administration de son pays, et détenir un passeport en cours de validité.

  • Le (la) candidat(e) s'engage pour 12 mois et s'engage à rejoindre son pays d'origine à la fin de sa mission.

  • Le recrutement du (de la) candidat(e) est strictement individuel, le projet excluant toute prise en charge de la famille ou de toute autre personne. Un(e) volontaire ne peut faire valoir sa qualité de volontaire francophone pour être rejoint(e) par un tiers.

  • Le (la) candidat(e) ne peut pas être volontaire dans son propre pays.

  • Les candidatures féminines et celles provenant «des pays du sud» et d’Europe centrale et orientale sont fortement encouragées.

MODALITÉS DE CANDIDATURE ET D'INSCRIPTION

Le (la) candidat(e) dépose son dossier de candidature en ligne en remplissant le formulaire de candidature au volontariat international de la Francophonie. Aucune candidature envoyée par voie postale ne sera traitée.
  • Le candidat devra au préalable impérativement prendre connaissance de la notice «comment postuler au volontariat international de la Francophonie, conseils et méthodes»

  • Seules les pièces suivantes doivent être jointes au courriel : curriculum vitae, copie de son diplôme le plus élevé, lettre de motivation.

  • Le dossier complet doit être validé en ligne par le candidat au plus tard à la date limite de

  • Date limite de dépôt des dossiers : jeudi 4 novembre 2010 avant minuit GMT

  • Information des candidat(e)s de leur présélection ou non: à partir de décembre 2010*.

  • Information des candidat(e)s présélectionné(e)s de leur sélection finale ou non: à partir de mars 2011*

  • Départ en mission prévu en avril 2011.*

*Ces dates sont données à titre purement indicatif, et pourraient sensiblement varier en fonction du nombre de candidatures reçues

DOCUMENT À TÉLÉCHARGER

Notice d’information: Comment postuler en ligne au volontariat international de la Francophonie?

EXAMEN ET ÉTAPES DE SÉLECTION
1 – Le traitement des candidatures

Les candidatures sont examinées avec la plus grande attention dès leur réception. Toute candidature reçue après la date limite de dépôt sera bien enregistrée mais prise en compte lors du recrutement des promotions suivantes.
2 – La présélection

Si une candidature est en parfaite adéquation avec un poste de volontaire, le candidat recevra un courriel l’informant de sa présélection. Il prendra connaissance du mandat de volontaire proposé et du lieu d’affectation. Les candidats présélectionnés au poste auront un délai de 5 jours pour confirmer le maintien de leur candidature pour l’étape suivante du processus: l’entretien de sélection.

Si la candidature n’est pas en parfaite adéquation avec un poste de volontaire, elle sera conservée dans notre réserve de recrutement.

3 – L’entretien de sélection

L’implantation locale du programme de volontariat située dans le pays du candidat le contactera pour un entretien individuel. Les interlocuteurs évalueront alors ses qualités relationnelles et ses aptitudes techniques.

4 – La mise en route

Le candidat retenu à l’issue de l’entretien de sélection devra passer un examen médical. Sous réserve de l'obtention d'un certificat d'aptitude médicale, et des autorisations administratives requises (visas), le candidat intègrera la promotion de volontaires. Il recevra alors une attestation de sélection de volontaire international de la Francophonie, un spécimen de la convention de volontariat, et les dates de mission seront fixées.

Chaque promotion de volontaires participe à une session de préparation au départ qui est obligatoire.

CONTACT
Direction de la Jeunesse

Programme de Volontariat international de la Francophonie «ViF»
Organisation internationale de la Francophonie
13 quai André Citroën • 75015 Paris (France)
00 33 1 44 37 33 00

@ courriel : Cette adresse email est protégée contre les robots des spammeurs, vous devez activer Javascript pour la voir.

source: Jeunesse.Francophonie


logo auf

 L’Agence universitaire de la Francophonie fête ses 50 ans

L’Agence universitaire de la Francophonie, première association mondiale d’universités francophones et Opérateur pour l’enseignement supérieur et la recherche des Sommets des Chefs d’Etat et de gouvernements de la Francophonie, fêtera ses 50 ans d’existence en septembre 2011.

Pour marquer son 50ème anniversaire, l’Agence organise un jeu-concours autour du thème: «Qu’est ce que ma francophonie?». Les candidats doivent répondre à la question posée.

La participation au concours est gratuite et sans frais; elle est ouverte à l’ensemble des étudiants francophones de niveau Licence 3 ou Master.

Le support d’expression est libre (texte de 1500 signes maximum*, photo, vidéo, etc.).

* Le nombre de signes correspond à la somme du nombre de caractères et d’espaces dans le texte.

A l’issue des sélections, le jury retiendra les trois meilleurs candidats:

· 1er prix: Une invitation à participer à la manifestation du 50ème anniversaire de l’AUF à Montréal (Canada): 1 aller retour Ville d’origine – Montréal (Canada) avec hébergement et frais de restauration pris en charge par l’AUF, selon les modalités en vigueur à l’Agence.

· 2ème prix: Une invitation à participer à la manifestation du 50ème anniversaire de l’AUF à Paris: 1 aller retour Ville d’origine – Paris (France) avec hébergement et frais de restauration pris en charge par l’AUF, selon les modalités en vigueur à l’Agence.

· 3ème prix: 1 mini-ordinateur portable (processeur: 1.66Ghz, mémoire vive: 1Go, stockage: 250Go, écran: 10.1 ").

Les lots ne peuvent faire l’objet d’un remboursement en espèces, ni d’aucune contrepartie de quelque nature que ce soit; ils sont non cessibles.

En savoir plus

·  Télécharger le règlement du concours(en format PDF).

· Connaître l’histoire de l’AUF et visionner le diaporama: «les années pionnières»


logo unesco

Prix pour l’utilisation des TIC dans l’éducation : appel à candidatures

Alphabétisation numérique : Préparer les apprenants adultes à l’apprentissage tout au long de la vie et à la flexibilité de l’emploi est le thème de l’édition 2010 du Prix UNESCO-Roi Hamad Bin Isa Al Khalifa pour l’utilisation des TIC dans l’éducation. Financé par le Royaume de Bahreïn, le prix d’un montant de 50.000 dollars des Etats-Unis est divisé en parts égales entre deux lauréats. La date limite de soumission des candidatures est fixée au 30 septembre 2010.

Chaque année, ce prix récompense des projets et activités qui sont des modèles d’excellence et illustrent les meilleures pratiques ainsi que l’utilisation ingénieuse des TIC en vue de promouvoir l’apprentissage, l’enseignement et les performances éducatives en général.

Les dossiers de candidatures doivent être soumis à l’UNESCO via le gouvernement des Etats membres, en consultation avec la Commission nationale pour l’UNESCO, ou par des organisations non gouvernementales qui entretiennent des relations formelles avec l’Organisation.

Le prix sera décerné lors d’une cérémonie qui aura lieu le 12 janvier 2011 au Siège de l’UNESCO à Paris.

Contact: Mariana Patru

Liens associés

Lettre circulaire de la Directrice générale adressée aux gouvernements des Etats membres

Guide et liste de contrôle

L’action de l’UNESCO dans le domaine des TIC dans l’éducation (en anglais)

source : unesco 


 Colloque international de la CIRUISEF

circuisef

La Conférence Internationale des Responsables des Universités et Institutions Scientifiques d’Expression Française (CIRUISEF), réseau institutionnel de l’AUF, organise son colloque annuel à l’Université libanaise de Beyrouth sur le thème: La structuration de la Recherche scientifique: fragmentation ou intégration ? du 8 au 12 novembre 2010.

La sur-spécialisation des chercheurs entraîne, actuellement, une fragmentation du Savoir, incompatible avec la résolution des problèmes globaux répondant à l’attente sociétale des pays. Il conviendrait donc de décloisonner les différentes disciplines, faire travailler ensemble des chercheurs de différents champs scientifiques, au même endroit, sur des projets communs, avec des cultures scientifiques croisées.

Les objectifs de ce colloque sont de réfléchir ensemble, pays de l’espace francophone, aux différentes formes de la structuration de la recherche afin que chacun se forge une opinion et adapte dans son pays les meilleures stratégies possibles.

Le Colloque est organisé par :

· L’Université Libanaise (UL)

· Faculté des Sciences

· Ecole Doctorale en Sciences et Technologie

En savoir plus

· Télécharger le programme du colloque

· Consulter le site Internet du: CIRUISEF

· Disposer de la synthèse du colloque CIRUISEF de 2009, en livret et en format numérique


logo jeunesse francophonieConcours régional « La Francophonie par des mots » - Date limite : 20 mai 2010

Description

À l’attention des jeunes d’Afrique centrale et de l’Océan indien actifs sur Internet

Cette année, la Journée internationale de la Francophonie, le 20 mars, est aussi celle de son 40e anniversaire. Dans ce cadre, le Bureau de l’Organisation internationale de la Francophonie pour l’Afrique centrale et l’Océan indien en partenariat avec l’Unité Jeunesse de la Francophonie organise un Concours régional pour sélectionner 40 articles portant sur la Francophonie écrit et publié sur Internet par un jeune résident en Afrique centrale et dans l’Océan indien. Ce concours est placé sous le signe de la «diversité au service de la paix».

Pour l’occasion, les jeunes auteurs francophones d’Afrique centrale et de l’Océan indien âgés de 18 à 30 ans sont invités à célébrer cet anniversaire placé sous le signe de «la diversité au service de la paix», par une mobilisation virtuelle à travers des articles à publier sur Internet du 20 mars au 20 mai 2010.

En tant que francophone, les jeunes actifs sur Internet qui souhaitent participer à ce concours sont appelés à publier un article sur des blogs, site internet ou sur toute autre page virtuelle qui expriment leur compréhension de la diversité au service de la paix.

Pour participer au concours, les jeunes auteurs doivent soumettre le lien Internet menant à leur article par le biais d’une fiche d’inscription. Le dossier de candidature complet (fiche d’inscription, photocopie d’une pièce d’identité) doit être envoyé par courriel à l’adresse unite. Cette adresse email est protégée contre les robots des spammeurs, vous devez activer Javascript pour la voir. Cette adresse email est protégée contre les robots des spammeurs, vous devez activer Javascript pour la voir. , en portant en objet la mention - Concours «La Francophonie par des mots », au plus tard le 20 mai 2010.

Les quarante lauréats recevront des outils promotionnels de la Francophonie (calculatrices, cartes, stylos, sacs, etc.) ainsi que des dictionnaires.

Pour tout savoir sur le concours, téléchargez le communiqué de presse, leformulaire d’inscription et le règlement.

Date limite : Les candidatures doivent être envoyées au plus tard le 20 mai 2010 par courriel: à l’adresse unite.jeunesse@francophonie.org


 


Appel à candidature pour une étude d’évaluation du niveau de prise en compte et de l’impact des résultats des évaluations du PASEC

Dans le but de prendre des décisions visant à renforcer et/ou à réorienter les stratégies d’intervention du Programme d’analyse des systèmes éducatifs de ses membres (PASEC), la CONFEMEN engage auprès des pays bénficiaires une étude qui a pour objectif général d’évaluer le niveau de prise en compte et l’impact des résultats des évaluations menées jusqu’ici par la CONFEMEN dans les pays membres.

Les dossiers d’offre technique et financière devront parvenir au Secrétariat technique permanent (STP) de la CONFEMEN au plus tard le 30 mai 2010, en version électronique aux adresses suivantes: Cette adresse email est protégée contre les robots des spammeurs, vous devez activer Javascript pour la voir. et Cette adresse email est protégée contre les robots des spammeurs, vous devez activer Javascript pour la voir. .

Vous trouverez ci-joint les termes de référence de l’étude.

Terme de référence sur la prise en compte des résultats issus des évaluations PASEC (PDF, 146.4ko)

source: confemen.org


La maîtrise des technologies influence la réussite universitaire

Aux Etats-Unis, Etudiantde nombreux cours nécessitent une utilisation soutenue du web ou de logiciels. Un pré-requis qui peut écarter les étudiants ne disposant pas de ces compétences du parcours choisi.

Les connaissances en informatique et en technologies de l'information dont dispose un étudiant à son entrée à l'université déterminent en partie sa réussite universitaire, interpelle une chercheuse de l'université de l'Oregon. Selon elle, un grand nombre de cours nécessitent de maîtriser Internet ou d'utiliser des logiciels. Le problème, regrette-t-elle dans une étude, c'est que les universités partent du principe que la fameuse Génération Y dispose de ces compétences, et ne se préoccupent pas de le vérifier à l'entrée. Résultat : la présence ou l'absence de telles connaissances a un impact réel sur l'orientation et le succès de l'élève. Et, à terme, sur sa carrière. "Les universités perpétuent plutôt qu'elles ne résistent aux inégalités associées à la fracture numérique", regrette Joanna Goode, auteur de l'étude et professeur assistant en sciences de l'éducation à l'université.

Un sentiment d'illégitimité

"Si les élèves n'ont pas été sensibilisés aux technologies, dans leur vie privée ou au lycée, ils se montrent mal préparés face à une variété d'options pourtant déterminantes pour la suite de leurs études et de leur parcours", note-t-elle. Et d'ajouter : "Une bonne préparation, chez soi ou en cours, peut vraiment aider au succès universitaire. Au contraire, une mauvaise donne un sentiment de non adéquation avec les formations proposées et d'illégitimité et réduit du coup les perspectives". La chercheuse s'est intéressée à cinq cents étudiants, dont elle a étudié le niveau de connaissances informatiques. Puis en quoi les compétences qu'ils avaient ou dont ils manquaient avaient une influence sur leurs études. Elle s'est particulièrement penchée sur le cas de trois élèves, ayant des compétences informatiques allant du strict minimum à très élevées. L'élève n'ayant pas un bagage très rempli a dû changer d'orientation et passer d'une majeure scientifique à une autre en langues.

Une modification de la définition de fracture numérique

La raison : elle ne savait pas comment accéder à des bases de données en ligne nécessaires à la réalisation d'un devoir, ni maîtriser l'un des logiciels utilisés en cours. Elle ne savait pas non plus en y entrant que l'université proposait un accès gratuit à Internet. Ce constat modifie la définition de la fracture numérique telle qu'elle est généralement perçue, juge Joanna Goode : soit comme la différence entre les personnes ayant un accès effectif à l'informatique et aux technologies de l'information et celles dont il est limité. Selon la chercheuse, il faudrait plutôt parler de la manière dont la connaissance et l'utilisation d'un ordinateur et de logiciels créent des opportunité ou des obstacles en terme d'éducation et de carrière. Cette étude fait écho à une autre récemment menée par l'université de Northwestern, et qui s'est intéressée aux liens entre connaissances numériques et contexte socio-économique.

Source: l’atelier,fr


Internet n'est (presque) plus sous le contrôle exclusif des Américains

L'Icann, l'organisme qui gère les extensions sur Internet, est placé sous la supervision de comités internationaux. Mais les Etats-Unis gardent la mainmise sur la partie technique du système de nommage.

En matière de gouvernance de l'Internet, les Etats-Unis jouent l'ouverture... avec précaution ! Le gouvernement américain a modifié hier le contrat qui lie depuis 1998 le Département américain du commerce àl'Icann (Internet Corporation for Assigned Names and Numbers).

Rappelons que cette société californienne de droit privé joue un rôle clé dans le développement du Web puisqu'elle gère l'attribution des extensions de noms de domaine (.fr, .net, .org, entre autres). Exit donc le précédent contrat appelé JPA (Joint Project Agreement), place au AOC (Affirmation of Commitments). Ce nouveau contrat encadre le fonctionnement de l'Icann en créant un dispositif de supervision élargi au niveau international, avec la création de quatre comités d'audit.

Ces comités, composés de membres en provenance de tous les pays, devront peser sur les orientations de l'organisme. Ils seront chargés d'évaluer régulièrement les actions de l'Icann et de lui faire des recommandations.

La décision est saluée par la communauté internationale qui s'insurgeait depuis des années contre le contrôle exclusif des Etats-Unis dans ce domaine. « Cela va dans le sens d'une internationalisation, bien que limitée, de l'Icann. C'est une ouverture en direction des autres gouvernements et des membres de la communauté internet internationale », se réjouit Loïc Damilaville, adjoint au directeur général de l'Afnic, l'Association française pour le nommage Internet en coopération, qui gère le .fr.

Un organisme toujours sous tutelle américaine

Mais cette évolution de la politique américaine ne signifie en aucun cas que l'Icann est devenu indépendante du Département américain du commerce (DoC). L'organisme lui reste toujours lié.« Cette décision ne s'applique pas à un autre contrat, plus important, celui qui encadre la gestion de la racine, c'est-à-dire la fonction Iana (Internet Assigned Numbers Authority). Il s'agit de la capacité d'ajouter, de supprimer ou de mettre à jour des extensions de premier niveau sur Internet, ce qui crée une dépendance au minimum technique de tous les pays à l'égard des Etats-Unis, par rapport notamment à leurs extensions locales respectives ! »,constate Loïc Damilaville.

De quoi satisfaire de nombreux sénateurs américains, parmi lesquels Terry Lee, qui a déclaré cet été « qu'il faut garder le contrôle d'Internet car celui-ci est un enjeu de sécurité nationale ».

Des zones d'ombre sur la composition des comités

Reste à connaître le comportement des gouvernements et de la communauté Internet. Un point important n'a pas été assez précisé dans le nouveau contrat. Il concerne la liste des membres des comités d'audit. De par leurs fonctions, le président de l'Icann et celui du comité consultatif des gouvernements (GAC) feront partie de ces comités. Le GAC est, rappelons-le, le Comité consultatif de l'Icann qui accueille les représentants des Etats.

Mais ces comités seront également composés de ce que l'Icann appelle des «volontaires issus de la communauté» (Volunteer Community Members). «Il pourra s'agir d'experts et de représentants des entreprises », indique Loïc Damilaville. Cette composition, qui doit être validée conjointement par le président du GAC et par celui de l'Icann, fera certainement l'objet d'âpres négociations lors des deux prochains grands rendez-vous internationaux, à savoir la réunion de l'Icann à Séoul, fin octobre, et celle du Forum pour la gouvernance d'Internet (FGI) qui se tiendra en Egypte à la mi-novembre.

Source: 01net,net


 Une entreprise condamnée pour violation de licence libre

La société Edu4 avait fourni en 2001 à l'Afpa un logiciel de formation sous GNU GPL, mais avait camouflé cette caractéristique.

http://www.01net.com/imgv6/structure/dot.gifDes licences libres au cœur d'un procès pour violation de droit d'auteur, ce n'est pas si courant. La cour d'appel de Paris a pourtant eu à traiter un dossier de ce genre et a condamné le 16 septembre 2009 une société spécialisée dans les outils multimédias pour la formation. Celle-ci n'avait pas respecté les termes de la licence GNU GPL.

L'histoire remonte à 2001, quand la société Edu4 installe pour le compte de l'Association pour la formation professionnelle des adultes (Afpa) des espaces de formation basés sur des outils multimédias. Le prestataire doit équiper 27 sites avec son logiciel Référence. Un gros contrat dépassant les dix millions de francs (à l'époque).

Mais lors de l'installation, un technicien a soudain un doute et alerte la direction de l'Afpa : le programme fourni par Edu4 – et soi-disant conçu par elle – est en fait VNC, un logiciel libre permettant à un tuteur de se connecter à un ordinateur distant et d'avoir accès aux clics et aux frappes de clavier de l'utilisateur.

A partir de là, l'Afpa réclame les droits qu'elle est censée avoir sur le logiciel ainsi que les codes sources. Devant le refus de son prestataire, l'Afpa veut rompre le contrat à l'amiable. Elle s'estime en effet « trompée par les tentatives d'appropriation par la société Edu4 du logiciel Référence », selon les termes du jugement en appel que 01net. s'est procuré.

En juin 2002, Edu4 porte l'affaire devant le tribunal de commerce de Bobigny et demande des dommages et intérêts pour rupture abusive de marché. En septembre 2004, la justice lui donne raison et l'Afpa fait appel. Cette dernière obtient gain de cause ce mois de septembre. Edu4 perd le contrat et doit payer 8 000 euros de frais de procédure civile.

Valeur juridique

«Edu4 a fait trois erreurs, détaille Loïc Dachary, porte-parole français de la Free Software Foundation, consultée lors du procès en tant que partie sachante. Ils n'ont pas fourni les codes sources modifiés comme le demande la licence GNU/GPL. Ils ont retiré le texte qui normalement informe des droits sur la licence. Enfin, ils ont prétendu que c'étaient eux qui avaient conçu le logiciel.»

Il ne s'agit cependant pas d'un procès pour contrefaçon, les auteurs de VNC ne s'étant pas manifesté. Cette affaire est un pur litige commercial, qui prend appui sur un problème de contrefaçon: un client (l'Afpa) n'est pas informé de tous ses droits sur un produit acheté (VNC) et s'avère trompé par son vendeur (Edu4). Mais, et c'est là toute la valeur de ce jugement, c'est la première fois que la licence GNU/GPL se voit reconnaître par la justice une valeur juridique.

Source: 01net.net


 

Bilan d’une expérimentation pédagogique sur Second Life Par Lucile Donnat

La revue en ligne e-Learning Papers a publié le bilan d’un projet pilote européen autour de Second Life pour des élèves de 13 à 17 ans. Il s’agit du premier projet de ce type en Europe pour expérimenter les possibilités pédagogiques d’un univers virtuel.

Second Life et les univers virtuels peuvent-ils avoir un intérêt pédagogique ? Les avis divergent, pourtant des exemples d’exploitation pédagogique de Second Life existent. C’est pour expérimenter toutes ces possibilités que la NAGTY (Académie nationale des jeunes doués et talentueux) de Schome Park, au Royaume-Uni, a mis en place en 2007 le premier projet pilote européen d’une communauté d’apprentissage sur Second Life.
Le bilan de cette expérimentation a été publié fin juin dans la revue en ligne e-Learning Papers. Il explique le contexte, les objectifs et l’évaluation de ce projet qui était destiné aux élèves de 13 à 17 ans. Il a été mis en place de mars à mai 2007 dans la partie de Second Life réservée aux mineurs, Teen Second Life.
Une île fermée et accessible uniquement aux personnes invitées à joindre le projet a été créée dans Teen Second Life. Cette île a été appelée Schome Park. En plus de cette île virtuelle, un wiki et un forum ont été mis en place pour compléter le projet. L’objectif était ainsi de créer une nouvelle forme de système éducatif et d’en considérer le potentiel.
Les 149 participants sélectionnés (élèves et enseignants) se sont créés leurs propres avatars, mais une fois rentrés dans l’île de Schome Park, ils n’avaient plus la possibilité de quitter l’île et visiter d’autres zones de Teen Second Life.
L’île virtuelle de Schome Park avait pour ambition de devenir une extension de l’école. L’équipe pédagogique avait fixé quatre objectifs : permettre aux participants de trouver, individuellement ou en collaboration, des opportunités d’apprendre, leur proposer des situations d’apprentissage dans différentes disciplines (physique, philosophie, archéologie), encourager l’apprentissage différencié et le travail collaboratif entre tous les participants.
Rapidement, les élèves ont créé des liens forts avec les autres participants, mêmes avec les enseignants, qui, dans l’univers virtuel, paraissaient beaucoup plus abordables. Seul un acte de sabotage sur l’île a été recensé, mais il est resté isolé.
Après avoir découvert l’île et commencé à maîtriser cet univers, les élèves ont commencé à organiser des débats, à proposer des idées et organisé plusieurs activités : des parties d’échecs, une énigme meurtrière…
Les enseignants ont organisé pour les élèves des activités pédagogiques. En philosophie, l’enseignant lançait, à la manière de Socrate, un sujet de discussion autour d’une question et les élèves regroupés dans un jardin de l’île devaient s’exprimer et débattre. En physique, des ateliers étaient mis en place et les élèves devaient faire des expérimentations, comme étudier les forces physiques de l’île. Enfin, en archéologie, les élèves devaient effectuer des recherches sur le Web, les localiser et en discuter avec les autres. Une expérience a aussi été menée autour du Mur d’Hadrien.
Les statistiques montrent que 68% des participants se sont rendus sur l’île virtuelle et 41% y ont passé au moins une heure. Une seule élève y a passé plus de 100 heures, parce qu’elle était chez elle, pour un arrêt maladie de longue durée. Finalement, seul un quart des élèves représentait presque tout le temps passé sur Schome Park. Le projet ne semble donc pas avoir réussi à intéresser la majorité des élèves.
Le wiki et le forum ont aussi été utilisés par une minorité d’élèves, mais très actifs. Ce sont principalement les membres les plus actifs sur Second Life qui ont le plus contribué au wiki et au forum.
Ceux qui ont participé activement ont fait de nets progrès dans plusieurs compétences : la communication, le travail d’équipe, le leadership et la créativité. Quatre niveaux pour ces compétences avaient été déterminés. De nombreux élèves ont pu relever plusieurs niveaux de compétences. Seul le travail d’équipe a créé des difficultés dès le début, mais un bon nombre d’élèves se sont investis pour résoudre les problèmes.
Dans ce projet, le rôle des enseignants a plutôt été celui de « facilitateur », car les apprenants ont pu rapidement ensuite transmettre leurs connaissances aux autres de façon informelle. Second Life est donc apparu comme un vrai lieu d’apprentissage pour tous les participants.
Cette expérimentation a convaincu l’équipe pédagogique de continuer à chercher de nouvelles opportunités et de nouvelles libertés dans les pratiques pédagogiques. Un projet nommé Schome Park II a été lancé en juin 2007 avec des participants des États-Unis et du Royaume-Uni.

Pour consulter le bilan complet de l’expérimentation, disponible en anglais et en espagnol, cliquez ici.



Source: infobourg,fr


 

Une entreprise condamnée pour violation de licence libre

La société Edu4 avait fourni en 2001 à l'Afpa un logiciel de formation sous GNU GPL, mais avait camouflé cette caractéristique.

http://www.01net.com/imgv6/structure/dot.gifDes licences libres au cœur d'un procès pour violation de droit d'auteur, ce n'est pas si courant. La cour d'appel de Paris a pourtant eu à traiter un dossier de ce genre et a condamné le 16 septembre 2009 une société spécialisée dans les outils multimédias pour la formation. Celle-ci n'avait pas respecté les termes de la licence GNU GPL.

L'histoire remonte à 2001, quand la société Edu4 installe pour le compte de l'Association pour la formation professionnelle des adultes (Afpa) des espaces de formation basés sur des outils multimédias. Le prestataire doit équiper 27 sites avec son logiciel Référence. Un gros contrat dépassant les dix millions de francs (à l'époque).

Mais lors de l'installation, un technicien a soudain un doute et alerte la direction de l'Afpa : le programme fourni par Edu4 – et soi-disant conçu par elle – est en fait VNC, un logiciel libre permettant à un tuteur de se connecter à un ordinateur distant et d'avoir accès aux clics et aux frappes de clavier de l'utilisateur.

A partir de là, l'Afpa réclame les droits qu'elle est censée avoir sur le logiciel ainsi que les codes sources. Devant le refus de son prestataire, l'Afpa veut rompre le contrat à l'amiable. Elle s'estime en effet « trompée par les tentatives d'appropriation par la société Edu4 du logiciel Référence », selon les termes du jugement en appel que 01net. s'est procuré.

En juin 2002, Edu4 porte l'affaire devant le tribunal de commerce de Bobigny et demande des dommages et intérêts pour rupture abusive de marché. En septembre 2004, la justice lui donne raison et l'Afpa fait appel. Cette dernière obtient gain de cause ce mois de septembre. Edu4 perd le contrat et doit payer 8 000 euros de frais de procédure civile.

Valeur juridique

«Edu4 a fait trois erreurs, détaille Loïc Dachary, porte-parole français de la Free Software Foundation, consultée lors du procès en tant que partie sachante. Ils n'ont pas fourni les codes sources modifiés comme le demande la licence GNU/GPL. Ils ont retiré le texte qui normalement informe des droits sur la licence. Enfin, ils ont prétendu que c'étaient eux qui avaient conçu le logiciel.»

Il ne s'agit cependant pas d'un procès pour contrefaçon, les auteurs de VNC ne s'étant pas manifesté. Cette affaire est un pur litige commercial, qui prend appui sur un problème de contrefaçon: un client (l'Afpa) n'est pas informé de tous ses droits sur un produit acheté (VNC) et s'avère trompé par son vendeur (Edu4). Mais, et c'est là toute la valeur de ce jugement, c'est la première fois que la licence GNU/GPL se voit reconnaître par la justice une valeur juridique.

Source: 01net.net

 

Les universités américaines face au processus de Bologne : l'heure des choix

Le processus de Bologne lancé en 1999 par 29 pays européens, à présent au nombre de 46, vise à "améliorer la transparence entre les divers systèmes d'enseignement supérieurs européens" [1] grâce à quatre composantes principales : un premier cycle (trois ans [2]) préparant à l'intégration d'un deuxième cycle (deux ans), l'adoption du système européen de transfert et d'accumulation de crédits (ECTS), la mise en place d'un supplément au diplôme et d'un système performant d'évaluation des institutions.

La rapide diffusion de ce processus (dans 82% des 900 universités européennes), combinée avec la disparition programmée à la rentrée 2010 des cursus et diplômes antérieurs aux réformes induites par le processus de Bologne, transforme profondément les termes de la relation de coopération/compétition entre les systèmes universitaires nord-américain et européen. Elle devrait, toutes choses égales par ailleurs, accroître l'attractivité des pays de l'Espace Européen de l'Enseignement Supérieur (EEES) vis-à-vis des étudiants étrangers y compris américains, tout en obligeant les universités nord américaines à choisir une politique d'équivalence claire et le plus souvent favorable aux étudiants européens souhaitant faire des études graduées aux Etats-Unis. L'Europe devrait donc voir augmenter le nombre d'étudiants étrangers en mobilité entrante, en concurrence accrue avec les Etats-Unis, alors que la majorité des étudiants en mobilité internationale au sein de l'Europe vient pour l'instant du vieux continent.

Le processus de Bologne est de plus un vecteur de réforme, d'émulation et de coopération (double diplômes, recherche en commun, etc.) au sein de l'espace universitaire européen. En assurant une plus grande comparabilité des diplômes, il élargit également les perspectives professionnelles de ses nouveaux diplômés à l'échelle européenne.

Les institutions américaines, qui avaient su attirer une proportion remarquable d'étudiants étrangers, tout particulièrement aux niveaux gradués, sont pour leur part restées trop passives -selon la théorie du "retarding lead"- en réaction au processus de Bologne, en partie du fait de la complexité et du degré extrême de décentralisation du système americain. Les contrecoups des événements du 11 septembre 2001 ont également eu un impact négatif sur l'accueil des étudiants internationaux aux Etats-Unis, que les années passées n'ont pas entièrement permis de rattraper. Avec l'approfondissement du processus de Bologne, les universités américaines craignent aujourd'hui de souffrir d'une réorientation des étudiants, en particulier chinois et indiens, au bénéfice des systèmes européens ou australiens (tous deux en trois ans). Après avoir été la référence du système universitaire international les universités américaines craignent aujourd'hui que le modèle européen ne devienne la norme, avec sa possible adoption par la Chine [3].

A l'inverse, le processus de Bologne, en harmonisant les structures de diplômes en Europe, a le potentiel de renforcer non seulement la mobilité horizontale (mobilite internationale au sein d'un cycle) mais aussi verticale (mobilité internationale entre deux cycles) notamment entre l'Europe et les Etats-Unis. Mobilité "horizontale" tout d'abord dans le cadre d'accords de coopération, rendus plus faciles par la claire identification et comparabilité des niveaux d'études ; mobilité "verticale" individuellle ensuite de la part d'individus désireux de compléter leurs études graduées aux Etats-Unis apres un premier diplôme en Europe, en bénéficiant d'une politique d'equivalence plus systématique de leur diplôme européen. Une étude effectuée par le Council of Graduate Studies [4] montre ainsi que 56% des institutions américaines en 2006, contre 41% en 2005, ne considèrent plus comme problématique cette différence de durée des premiers cycles.

La multiplication des diplômes communs ou doubles-diplômes entre universités européennes et américaines témoigne de cette adaptation des institutions américaines [5]. Citons le programme Atlantis, développé par le US Department of Education's Fund for the Improvement of Postsecondary Education (FIPSE) et le European Commission's Directorate General for Education and Culture permettant de créer un cadre organisationnel à la mobilité étudiante transatlantique. Une étude publiée par l'Institute of International Education et la Freie Universitat de Berlin en janvier 2009 confirme la vitalité de ces diplômes spécifiques : parmi les cinq partenaires principaux des institutions américaines dans l'instauration de ces diplômes figurent trois pays européens (Allemagne, France et Espagne) [6].

Après le défi représenté par la reconnaissance des diplômes européens, les établissements d'enseignement supérieur américains devront sûrement résoudre certaines questions d'équité : Est-il juste d'accepter un étudiant ayant suivi un premier cursus en trois ans dans un pays signataire du processus de Bologne et de refuser le même étudiant issu d'un pays non-signataire (Inde) ? Les universités s'étant adaptées plus rapidement ne risquent-elles pas de monopoliser les meilleurs étudiants en mobilité internationale ? On risque en effet d'assister à une perte de vitesse des universités n'ayant pas reconnu les diplômes européens qui pourraient donc déboucher sur une reconnaissance globalisée de ceux-ci.


[1] Supplément au diplôme : document non-normatif attaché au diplôme de chaque étudiant européen pour expliciter son parcours

source: BE.com


La technologie peut-elle contribuer à réduire les inégalités d’accès à l’éducation ?

Avis d’Expert : Kemal El Moujahid, Fondateur de Teacheo

Dans notre société, l’accès à l’éducation détermine plus que jamais les opportunités dont on bénéficie au cours de sa vie professionnelle. Les parents recherchent donc le meilleur niveau de formation possible pour leurs enfants : 53% des Français placent la réussite scolaire de leurs enfants comme leur préoccupation première (étude TNS Sofres), ce qui alimente le marché du soutien scolaire et ses 2 milliards d'Euros annuels.

Le soutien scolaire n’est évidemment pas une alternative à l’Education Nationale, qui reste garant de la qualité de l’éducation de nos enfants. Cependant, selon la lettre VST de décembre 2006 « 80% des parents enquêtés estiment que le soutien scolaire a permis d'améliorer le niveau scolaire de leur enfant ». Bien qu’on puisse débattre de l’impact du soutien scolaire sur le progrès d’un enfant, il n’en reste pas moins qu’il s’établit un fossé économique entre les parents qui peuvent offrir à leurs enfants une aide scolaire, et ceux qui verront malheureusement les chances de leurs enfants amenuisées - les heures de soutien gratuites promises par le ministère de l’Education Nationale devant atténuer le déséquilibre - .

D’autres inégalités existent : nombre de parents ne connaissent pas les filières de recrutement des professeurs particuliers et ne savent pas comment les évaluer. De même, les parents habitant dans des banlieues difficiles d’accès, ou en milieu rural, ne bénéficient pas, ou moins facilement, du même accès au soutien scolaire.

Quelle place réelle pour les nouvelles technologies dans l’éducation ?

Les nouvelles technologies promettent depuis longtemps de révolutionner l’enseignement. Certains usages ont complètement intégré notre mode de vie : les élèves d’aujourd’hui auraient du mal à se passer de l’Internet pour leurs recherches documentaires par exemple. Mais de nouvelles applications vont profondément changer la donne.

Grâce aux récents progrès technologiques, il est désormais possible de donner des cours véritablement interactifs par Internet, en utilisant son micro, sa webcam, et un tableau blanc interactif (TBI) partagé. La classe virtuelle permet de s’affranchir des barrières géographiques, en instaurant un réel échange pédagogique. Les élèves de tous horizons, équipés d’une connexion Internet, reçoivent de l’aide sur leurs devoirs, à la dernière minute, où qu’ils soient, pour des sessions d’un quart d’heure ou de deux heures. Le professeur ne se déplace plus, il peut donc facturer moins cher de l’heure, et ne facture que le temps effectif. La session d’enseignement peut être enregistrée et revue à tout moment par l’élève. Un nouveau mode complémentaire d’aide aux devoirs, qui ne se substitue pas au soutien scolaire présentiel.

On peut alors se demander si ces places de marché vont accentuer les inégalités d’accès au soutien scolaire. Va-t-on avoir d’un coté les foyers aisés dotés d’un nouvel avantage, et de l’ autre, les ménages plus modestes laissés de côté par le progrès ? Comme beaucoup d’innovations, c’est l’utilisation qu’on en fait qui apporte une réponse. Le modèle économique le plus répandu consisterait à extraire un maximum de la valeur créée : facturer autant que possible au parent, et payer le professeur particulier un minimum. Dans ce scénario, ni le parent, ni l’élève, ni le professeur ne voit une réelle amélioration de sa situation. Les inégalités se creuseront inexorablement.

Un modèle économique plus équitable est possible !

Lorsqu’il s’appuie sur des modèles communautaires, Internet peut être un véritable facteur de réduction des inégalités. Rien n’empêche de faire de même dans le soutien scolaire. Quid d’une communauté où élèves et professeurs, aux compétences vérifiées, s’inscrivent, passent leur annonce, négocient directement leurs tarifs et horaires, et se retrouvent dans une classe virtuelle pour un réel échange pédagogique ? Bref, un système plus équitable où aucune commission n’est prélevée sur les revenus des professeurs particuliers, souvent des étudiants du supérieur qui cherchent à financer leurs études.

En proposant un niveau d’accès gratuit permettant aux professeurs et élèves de tester l’outil, et des services supplémentaires sous forme d’abonnements à des prix accessibles (moins de 10 Euros/mois), il est possible d’envisager un modèle communautaire rentable, qui offre aux parents et aux élèves un soutien scolaire flexible, économique, de qualité, et à des professeurs particuliers de tirer des revenus de leur savoir. Dans ce scénario, les avantages d’Internet reviennent pleinement aux élèves et aux professeurs, réduisant ainsi les inégalités d’accès : vingt minutes d’explication avec un professeur étudiant en grande école reviennent en moyenne à 5 Euros !

Bien sûr, l’équipement des ménages devra être favorisé, ce qui va dans le sens du plan France Numérique 2012, mis en œuvre par Nathalie Kosciusko-Morizet, Secrétaire d'État chargée de la prospective et du développement de l'économie Numérique. Cette technologie bénéficiera alors également à l’enseignement traditionnel.

Le contexte actuel de pandémie a mis en évidence l’intérêt des dispositifs à distance. Au delà des cours enregistrés, un contact en temps réel et interactif entre l’enseignant et sa classe manqueront cruellement. Donner gratuitement accès aux enseignants de l’éducation nationale aux classes virtuelles et leur permettre de garder un lien interactif avec leurs élèves constitue une solution de l’Internet communautaire.

En dehors du contexte de la grippe A, l’utilisation des classes virtuelles s’imposera progressivement, en complément des cours physiques. Ces classes pourront également servir à des groupes de travail virtuels entre étudiants, des classes multi-géographiques pour l’enseignement des langues et l’échange culturel. Elles sont déjà utilisées dans les pays comme l’Inde pour démocratiser l’accès à l’éducation. Il n’est que temps de s’en servir en France pour garantir à tous l’accès au soutien scolaire.

source: artesi,idf,com



La première Maison des Savoirs de la Francophonie ouvre ses portes à Hué

La Maison des Savoirs de la Francophonie, la première du genre, a été inaugurée le 17 septembre 2009, au coeur de la ville de Hué au Vietnam par le Vice-Président du Comité populaire de la Ville de Hué et Vice-Président de l'Association des villes du Vietnam, en présence de nombreux étudiants et de représentants d'établissements scolaires.

Cet espace public de 300 m2, désormais ouvert à la population, en particulier aux jeunes et aux femmes, offrira un accès facile et peu coûteux aux savoirs et à la culture numérique et proposera différentes activités culturelles et éducatives, notamment l'apprentissage de la langue française et l'initiation aux logiciels libres et au multimédia.

Trois autres Maisons des Savoirs seront ouvertes prochainement à Ouagadougou(Burkina Faso) Chisinau (Moldavie) et Kinshasa (RD.Congo) dans le cadre d'unprogramme pilote mis en place conjointement par l'Organisation internationale de la Francophonie (OIF) et l'Association internationale des maires francophones (AIMF), auxquelles s'associent l'Agence universitaire de la Francophonie (AUF) et TV5MONDE.

Le bâtiment municipal abritant la Maison des Savoirs de Hué a été construit grâce à une contribution octroyée par l'AIMF en 2001. L'appui financier de l'Organisation Internationale de la Francophonie a permis d'équiper l'Espace numérique par la dotation d'une trentaine de postes informatiques, de matériels de vidéo (projecteur, scanneur, télévision, visioconférence), la création d'un centre de documentation et d'apprentissage de la langue française regroupant 2000 titres (livres, documents, DVD, CD et monographies) ainsi que l'aménagement et l'ameublement de salles multifonctionnelles et des espaces d'animations socioculturelles. La Ville de Hué prend en charge une partie des frais de fonctionnement (salaire des animateurs, électricité, entretien, gardiennage, assurances).

Pour renforcer l'apprentissage de la langue française et l'appropriation des logiciels libres par environ 5000 étudiants, la Maison des savoirs de Hué a conclu des ententes avec des institutions universitaires et scolaires : les écoles supérieures des langues étrangères de l'Université de Hué et de la Faculté de français, l'école supérieure des langues étrangères, la Faculté du tourisme de la Faculté des finances bancaires et l'école des sciences économiques ainsi que trois lycées.

Les activités offertes par la Maison des savoirs de Hué ont commencé dès son inauguration : « J'enseigne et j'apprends avec TV5Monde », un séminaire en présence de professeurs de français du Laos, du Cambodge et du Vietnam ; une formation aux logiciels libres dispensée par l'AUF et un atelier sur la rédaction, la formulation et le financement de projets internationaux organisé par l'OIF.

La création des Maisons des Savoirs de la Francophonie avait été décidée en 2006 à Bucarest (Roumanie) lors du Sommet de la Francophonie afin de soutenir les efforts de développement des pays francophones.

Source: AIMF




Les cours en ligne, plus efficaces que les salles de classe ?

Les étudiants dont les cours ont lieu en tout ou partie “en ligne” obtiennent, en moyenne, de meilleurs résultats que ceux qui assistent aux mêmes cours, mais de façon traditionnelle, en face à face.”

La conclusion de l’étude que vient de publier le ministère américain de l’éducation, a le mérite de la clarté. Le New York Times n’hésite d’ailleurs pas à titrer que “l’éducation en ligne bat la salle de classe“. L’étude en question est moins péremptoire, et incite à plus de modération.

Les auteurs, membres du Centre pour la technologie dans l’éducation de SRI International (l’ex Standford Research Institut), insistent en effet sur le fait que sur les 1132 études publiées entre 1996 et 2008 qu’ils ont analysées, seules cinq se penchaient de façon expérimentale et explicite sur les mérites comparés des cours en ligne et des classes traditionnelles auprès d’enfants et d’adolescents.

Pour parfaire leur “méta-analyse“, ils ont donc également pris en compte 94 autres études portant sur l’apprentissage en ligne ou la formation à distance de militaires, personnels médicaux, étudiants, etc. de 13 à 44 ans.

Si les études portant sur les cours par correspondance (par vidéoconférence, télévision ou courrier interposés), n’ont jamais montré leur supériorité par rapport à l’enseignement traditionnel, l’étude relève, a contrario, que “les cours combinant apprentissage en ligne et en face à face sont plus performants que ceux qui ne sont effectués qu’en ligne seulement“.

How many non-Mac are there

L’éducation en ligne n’est pas supérieure en tant que médium, mais en terme d’attention

Pour être encore plus précis, ce qui marche le mieux, c’est de profiter des services (vidéo, messagerie instantanée) et outils (collaboratifs, notamment) disponibles sur le web pour personnaliser le cours en fonction des individus qui y assistent. Le recours aux technologies est ainsi un moyen d’inviter les apprenants à être plus actifs, à “apprendre en agissant” plutôt qu’en écoutant seulement.

Ainsi, les gains escomptés seraient moindres lorsque les enseignants “dirigent” les cours, ou se contentent de les enrichir de vidéos, questionnaires ou quizz, que lorsque les élèves sont invités à se les approprier, de façon autonome, interactive ou collaborative.

Interrogée par le New York Times, Barbara Means, coordinatrice de cette analyse, explique que “le principal enseignement de cette étude est la démonstration que l’apprentissage en ligne n’est pas un pis-aller quand il n’existe pas d’autre moyen, mais qu’il peut être meilleur que les méthodes conventionnelles d’éducation.” Le rapport, quant à lui, évoque un gain “modestement plus efficace” :

Cette méta-analyse ne démontre pas que l’enseignement en ligne est supérieur en tant que médium (mais) en terme de temps passé, de programme et de pédagogie, et de la combinaison de ces conditions, d’autant que les cours en ligne sont bien plus propices à l’expansion du temps passé à étudier que ne l’est l’enseignement en face à face.”

L’étude conclut également que les bénéfices sont bien plus probants dès lors que les élèves sont sous-diplômés ou âgés que lorsqu’il s’agit d’enfants ou d’adolescents, et en appelle à d’autres analyses scientifiques de la question, au vu des développements attendus, et de l’engouement, liés à l’éducation en ligne.

En commentaire du billet que Nicholas Carr consacre à ce sujet, deux enseignants pointent également du doigt un autre biais : les expériences étudiées ayant été le fait d’enseignants ayant fait le choix de s’impliquer dans ce type d’apprentissage en ligne, il n’est pas étonnant de voir que les résultats s’avèrent globalement positifs, la qualité de l’enseignement dépendant en bonne partie de l’implication de l’enseignant.

Et puisqu’il est aussi question de l’économie de l’attention, l’une d’entre-elles rajoute à ce titre avoir été “étonnée de découvrir que j’en apprenais plus sur la personnalité de mes élèves en ligne que je ne pouvais le faire en classe. Probablement parce qu’être en ligne induit plus d’interactions interpersonnelles“.

Aux Etats-Unis, 63% des enseignants des écoles primaires et secondaires déclaraient, en 2007, disposer d’un accès à l’internet à haut débit dans leurs classes, et plus d’un million d’élèves de 5 à 18 ans (sur un total de 48,4 millions) ont ainsi eu droit, en 2007-2008, à des cours en ligne.

Via Francis Pisani, sur Tumblr, Friendfeed & Twitter.

Source: Internetactu,net


Internet: le statut de l'Icann, gestionnaire des noms de domaine sur le point d'évoluer

L'Icann, le discret organisme américain gestionnaire d'internet et des noms de domaine, pourrait acquérir cette semaine un début d'autonomie par rapport aux autorités américaines.



Depuis sa création en 1998 l'Icann (Internet corporation for assigned names and numbers), organisation californienne à but non lucratif, fonctionne sur la base d'un accord avec l'administration américaine des télécommunications et de l'informatique, dépendant du département du Commerce.

Comme cet accord expire mercredi, un nouveau modèle, élaboré conjointement par l'Icann et le département du Commerce, devrait être annoncé cette semaine, peut-être dès mardi.

Pour la commissaire européenne chargée de ces dossiers, Viviane Reding, ce changement doit être l'occasion de sortir cet organisme clé de l'orbite gouvernementale américaine.

La compétence de l'Icann est en effet mondiale et ses décisions s'imposent à tous les Etats, par exemple son interdiction des noms de domaine .xxx pour les sites pornographiques. Actuellement il est engagé dans un projet de libéralisation des noms de domaine génériques, actuellement limité à 250 (.net, .fr, .com, .gov, .gouv etc), qui fait débat notamment pour le prix réclamé pour enregistrer de nouvelles adresses.

"Il n'est pas défendable qu'un ministère d'un pays ait la tutelle d'une fonction internet utilisée par des centaines de millions d'internautes dans tous les pays du monde", avait fait remarquer Mme Reding il y a quelques mois.

Les Etats-Unis apparaissent prêts à relâcher leur contrôle sur l'Icann, mais dans une certaine mesure seulement.

Son patron Rod Beckstrom, un ancien directeur du Centre National de la cybersécurité (NCSC) américain, a ainsi écrit au Congrès la semaine dernière que l'Icann entendait garder "une relation formelle à long terme avec le gouvernement des Etats-Unis".

Selon l'hebdomadaire The Economist, le renouvellement du statut de l'Icann pourrait prévoir la mise sur pied de commissions de surveillance comprenant des représentants d'autres pays.

Ces commissions examineraient quatre secteurs: la concurrence entre domaines génériques, la gestion des données sur les gestionnaires de domaines, la sécurité et la transparence des réseaux, et enfin la responsabilité et la protection de l'intérêt commun - la seule où les Etats-Unis bénéficieraient d'une représentation permanente.

Le nouveau statut, qui serait contenu dans un document de quatre pages baptisé "affirmation d'engagement", n'aurait pas d'échéance, selon The Economist.

Pour Jeremy Rabkin, professeur de droit à l'Université George Mason, en Virginie (est), le statut de l'Icann a toujours été particulièrement vague, mais les changements en préparation pourraient apporter un flou supplémentaire.

"Qu'est ce que c'est exactement une 'affirmation d'engagement'? je ne sais pas ce que c'est, on dirait un truc qu'on prononce dans un cadre religieux", dit-il.

Thomas Lenard, président de l'Institut de politique technologique, centre de recherches basé à Washington, s'inquiète que les changements évoqués reviennent à donner plus de rôle aux gouvernements, alors que "beaucoup de gens voulaient essayer d'empêcher que ce soit justement une émanation des gouvernements".

Steve DelBianco, directeur du collectif NetChoice qui regroupe des associations de commerce et des groupes de commerce électronique comme eBay, Yahoo! ou AOL, veut croire de son côté que l'arrangement "reflète ce qui était demandé dans l'enquête publique: des mécanismes permanents qui permettent de faire en sorte que l'Icann ait des comptes à rendre".

Source: AFP


 L'expérimentation, nouveau visage de l'innovation

Grâce à l'essor des technologies de l'information et de la communication, les processus d'innovation, centrés désormais sur de multiples expérimentations plutôt que sur la mise en place de plans de développement d'envergure, tendent à devenir plus rapides et économiques.


Un récent article de la faculté de gestion du MIT ("Sloan School of Management"), publié en partenariat avec le Wall Street Journal, s'en fait l'écho : les nouvelles technologies de l'Internet sont en train de changer le coeur des procédés d'innovation. Elles permettent en effet aux entreprises de tester et de simuler l'adoption de leurs nouveaux produits par le marché à une vitesse et à des prix qui étaient encore inimaginables il y a une dizaine d'années. En exposant en ligne les attributs de leurs dernières créations, elles peuvent en effet analyser en quelques heures la réaction des consommateurs. La conséquence est simple : les plans de développement de produits nouveaux, qui s'étalaient auparavant sur plusieurs mois et exigeaient des investissements en milliers, voire en millions de dollars, peuvent désormais être réalisés en quelques jours à bien moindres coûts.

Grâce à cette baisse de coûts qui réduit d'autant l'impact financier d'un échec de lancement ou de développement commercial, les sociétés prennent davantage de risques et soumettent toujours plus de nouveaux produits et services aux consommateurs de la toile. Ce système augmente naturellement les chances de succès des produits nouveaux tout en renforçant la réactivité et la compétitivité des marchés.

Plus que les entreprises, les grands gagnants de cette évolution sont sans aucun doute les consommateurs. Leurs avis, critiques et réactions sont mieux pris en compte et leurs attentes satisfaites de façon plus rapide. Au total, dans les nouveaux marchés devenus mondiaux et ultra compétitifs, les consommateurs obtiennent des produits et services taillés sur mesure pour répondre à leurs besoins et les entreprises en tirent un avantage concurrentiel.

Mais à quoi ressemblent ces expérimentations en pratique ? Le cas de "Procter and Gamble" constitue un bon exemple. La filiale américaine du groupe teste désormais la majeure partie de ses nouveaux concepts en ligne. En allant sur leur site, vous pouvez visualiser les nouveaux produits avec leurs caractéristiques et, en quelques clics, donner votre opinion en évaluant ces dernières. Les informations recueillies sont une mine d'or pour les chefs de produits et les responsables de la mercatique de l'entreprise.

Un autre exemple nous vient sans surprise de "Google Inc.". Le Groupe, porte drapeau de l'économie digitale et des nouveaux modèles de gestion, exécute en permanence entre 50 et 200 expériences, sur des durées allant de quelques heures à plusieurs jours. Dans l'un de ces tests en temps réel, Google a par exemple demandé à un échantillon d'utilisateurs le nombre de résultats qu'ils voudraient voir s'afficher dans une page de recherche. Réponse des utilisateurs : "davantage, bien davantage". Fort de ce retour, Google a donc conduit une nouvelle expérience où l'on demandait l'avis des internautes après que 30 résultats (au lieu de 10) se soient affichés à la suite d'une recherche. En quelques heures, Google a constaté que la fréquentation de son moteur de recherche diminuait de façon significative. L'explication est simple : 30 résultats tendent à ralentir l'affichage et à compliquer la recherche pour les utilisateurs.

L'article poursuit son raisonnement. Dans ce nouvel environnement ou l'expérimentation est rapide et efficace, les processus d'innovation traditionnels perdent de leur sens d'un point de vue économique. Aujourd'hui, les méthodes de recherche et développement habituelles restent guidées par des considérations liées à la motivation des chefs de produits. Les utilisateurs s'en moquent. Les fabricants de téléphone portable sont passés maîtres à ce jeu, proposant toujours plus de fonctionnalités qui participent à la complexité et au coût de l'appareil mais qui n'ajoutent pas de valeur d'usage pour le consommateur. Mais, dans tous les cas, l'ère de l'expérimentation modifie les méthodes traditionnelles de R&D et de commercialisation car elle accélère la remontée d'information quant aux nouveaux produits lancés sur le marché.

Plus profondément, ces évolutions des processus d'innovation entraînent d'importants changements dans la culture d'entreprise, remettant en cause les modèles hiérarchiques traditionnels et modifient la manière dont les cadres sollicitent leurs équipes pour produire de nouveaux concepts et lancer des idées de produits. Les managers doivent désormais offrir à leurs employés plus de liberté et d'implication dans le processus d'innovation. Les coûts et les temps d'expérimentation devenant de plus en plus faibles, davantage de propositions peuvent en effet être soumises au marché et testées en grande échelle.

L'article conclut que les procédés d'innovation continueront d'évoluer dans les années à venir. L'expérimentation s'affirmera comme le processus incontournable de création et de commercialisation de produits et services ne nécessitant pas un long développement au niveau technologique. Autres conséquences : les marchés tendront à devenir encore plus compétitifs, les méthodes de gestion seront amenées à encore évoluer et le marché suivra encore de plus près les attentes des consommateurs.

Source: "The New, Faster Face of Innovation", Erik Brynjolfsson and Michael Schrage, MIT Sloan Management Review,


Connecter les neurones humains à un robot pour comprendre le cerveau

Les neurones sont capables de communiquer avec des machines par signaux électriques. Les impulsions générées en réponse aux stimulations vont être étudiées afin de mieux comprendre les maladies neurologiques.

Un robot contrôlé par des cellules de cerveau humain? C’est ce qu’envisagent les chercheurs Kevin Warwick et Ben Whalley de l’université de Reading au Royaume-Uni, d’après un article du NewScientist. Leurs premières expérimentations, effectuées l’année dernière à partir de neurones de rats, ont démontré que ces derniers peuvent exercer une activité électrique capable de guider les déplacements d’un simple appareil sur roues. Les chercheurs britanniques prévoient de renouveler l’expérience avec des cellules humaines. L’équipe pense qu’en observant les réactions d’une culture de neurones en pleine stimulation, on devrait améliorer notre compréhension de certaines pathologies neurologiques.

Une structure semblable à un tissu vivant

Lors des travaux menés sur les cellules de rats, 300 000 neurones avaient été installés dans un pot contenant une mixture à base de nutriments et d’antibiotiques, et reliés au capteur de distance à ultrasons d’un petit robot. Les cellules communiquaient entre elles une fois cultivées pour que des connections s’établissent afin de former un tissu semblable à celui trouvé chez une créature vivante. Une certaine zone du tissu de neurones répondait aux impulsions émises par le capteur lorsqu’il détectait un mur, et permettait ainsi au robot de se détourner.

Comprendre les pathologies cérébrales

Le deuxième volet d’expérimentations, celui exploitant des neurones humains vise d’une part le traitement de pathologies neurologiques comme l’épilepsie ou la maladie d’Alzheimer. Certaines décharges provoquées par une manifestation à l’unisson des neurones peuvent être similaires à celles rencontrées lors de crises d’épilepsie. Si ce comportement peut être altéré chimiquement ou physiquement, il est alors possible de créer une thérapie pour contrôler ces phénomènes. D’autre part, il s’agira de comparer le comportement des neurones humains avec celui des cellules de rats, en matière de contrôle de robot, pour en tirer des conclusions au niveau des aptitudes d’apprentissage et de la mémoire.

Source:L'Atelier.fr


Le futur des interactions homme-machine naît dans les hôpitaux

Les avancées technologiques à usage médical sont nombreuses. Développées pour répondre à des besoins très particuliers, elles finissent souvent par être utilisées à des fins tout autres par le grand public.

Avec le militaire, le secteur médical est souvent présenté comme l’un des plus dynamiques en termes d’innovations technologiques. Bon nombre des avancées technologiques qui y sont développées trouvent une application grand public quelques années plus tard. Ce fut le cas par exemple de la reconnaissance vocale, d’abord destinée à des patients incapables d’utiliser un clavier: elle équipe aujourd’hui de nombreux téléphones mobiles, ainsi qu’une multitude de services téléphoniques. Pour en arriver là, il a fallu passer de la confidentialité des laboratoires de recherche à une industrialisation plus massive. Interrogé par l’Atelier, une porte-parole de l’Inserm* dévoile les projets en cours. Elle explique que l’institut travaille actuellement à un système qui permettra de faire fonctionner un ordinateur par la pensée.

Des projets ambitieux

Le projet, baptisé OpenVIBE, est un logiciel qui traite les signaux électriques liés à l’activité cérébrale pour les traduire en commandes pour des machines. On imagine sans peine les possibilités offertes par un tel système dans la vie courante. L’Inserm travaille également à un projet de robot capable d’apprendre, qui pourra apporter un soutien aux personnes âgées ou handicapées. D’autres innovations commencent à pénétrer les hôpitaux. « Actuellement, on se dirige de plus en plus vers la miniaturisation des techniques médicales, explique à l’Atelier Martine Decouvelaere, Présidente de l’Association Française des Ingénieurs Biomédicaux. « Dans 10 ou 15 ans, on verra apparaître des micro ou des nano-capteurs capable d’apporter un suivi médical quotidien de manière plus fine et continue que ce qui se fait actuellement avec des électrodes ».

Le médical à la pointe de la technologie et de la sécurité

Si le domaine médical est tant à la pointe, c’est avant tout pour deux raisons. D’une part, c’est un secteur où la recherche est fortement soutenue, que ce soit par les institutions publiques ou au travers de financements privés. D’autre part, certains patients ont un besoin si marqué, qu’ils constituent un marché même lorsque les technologies utilisées sont encore à parfaire. Autre avantage pour le consommateur, les projets développés dans le cadre du domaine médical subissent une batterie de tests destinés à assurer leur sécurité. « La recherche est effectuée par des laboratoires technologiques, explique Martine Decouvelaere, mais ce sont les CHU qui assurent la recherche clinique ». Et les hôpitaux ne sont pas du genre à badiner avec les risques pris par leurs patients.

*Institut National de la Santé et la Recherche Médicale

Source: L'Atelier,fr


 Le PC qui lit sur les lèvres devient polyglotte

Une nouvelle méthode de lecture labiale informatisée comprend différentes langues. Elle a plusieurs buts, notamment améliorer les outils de surveillance vidéo et créer un traducteur pour personnes malentendantes.

Reconnaissance facialeLes chercheurs à l'Université d’East Anglia en Angleterre ont déjà travaillé sur des logiciels qui déchiffrent les propos sans entendre la voix. Ce projet de lecture labiale ayant avancé, le système est désormais capable de reconnaître et de comprendre plusieurs langues. Conçu par un groupe de vingt-trois spécialistes bilingues ou trilingues, il identifie avec précision quelle langue parle une personne. Neuf langues sont aujourd'hui reconnues: anglais, français, allemand, arabe, mandarin, cantonais, italien, polonais et russe.

Comprendre la physiologie de la parole

"Nous avons constaté que les gens parlant des langues différentes faisaient des mouvement de lèvres différents, explique Stephen Cox, responsable du projet. Par exemple, les francophones ont tendance à arrondir la bouche, alors que chez les arabophones, ce sont les  mouvements de langues qui prédominent". Pour reproduire plus fidèlement la réalité, les chercheurs cherchent à répondre à plusieurs questions : quelle est la relation entre le mouvement facial et l’intonation ? Comment la langue parlée, la pose de la personne et le contexte du discours influent-ils sur la reconnaissance labiale ?

S'adapter à la manière de parler des individus

La prochaine étape dans le développement du projet sera de rendre le système capable de s’adapter à la physiologie individuelle et à la manière de parler de chacun. Le but étant de développer des outils et des techniques qui permettent le déchiffrage automatique des propos des personnes filmées. L'invention pourra trouver ses usages auprès des personnes malentendantes, mais aussi des services de police et de l'armée.

Source: L'Atelier,fr



Nicolas Carr : “Est-ce que Google nous rend idiot ?”

En introduction à un dossier à paraître sur le papier contre l’électronique, il nous a semblé important de vous proposer à la lecture Is Google Making Us Stupid ?, l’article de Nicolas Carr, publié en juin 2008 dans la revue The Atlantic, et dont la traduction, réalisée par Penguin, Olivier et Don Rico, a été postée sur le FramaBlog en décembre. Dans cet article, Nicolas Carr (blog), l’auteur de Big Switch et de Does IT matter ?, que l’on qualifie de Cassandre des nouvelles technologies, parce qu’il a souvent contribué à un discours critique sur leur impact, part d’un constat personnel sur l’impact qu’à l’internet sur sa capacité de concentration pour nous inviter à réfléchir à l’influence des technologies sur notre manière de penser et de percevoir le monde. Rien de moins.

La couverture d'Atlantic de juillet-août 2008Dave, arrête. Arrête, s’il te plaît. Arrête Dave. Vas-tu t’arrêter, Dave ?” Ainsi le super-ordinateur HAL suppliait l’implacable astronaute Dave Bowman dans une scène célèbre et singulièrement poignante à la fin du film de Stanley Kubrick 2001, l’odyssée de l’espace. Bowman, qui avait failli être envoyé à la mort, au fin fond de l’espace, par la machine détraquée, est en train de déconnecter calmement et froidement les circuits mémoires qui contrôlent son “cerveau” électronique. “Dave, mon esprit est en train de disparaître”, dit HAL, désespérément. “Je le sens. Je le sens.”

Moi aussi, je le sens. Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas. Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte.

Je crois savoir ce qui se passe. Cela fait maintenant plus de dix ans que je passe énormément de temps sur la toile, à faire des recherches, à surfer et même parfois à apporter ma pierre aux immenses bases de données d’Internet. En tant qu’écrivain, j’ai reçu le Web comme une bénédiction. Les recherches, autrefois synonymes de journées entières au milieu des livres et magazines des bibliothèques, s’effectuent désormais en un instant. Quelques recherches sur Google, quelques clics de lien en lien et j’obtiens le fait révélateur ou la citation piquante que j’espérais. Même lorsque je ne travaille pas, il y a de grandes chances que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre encore. (À la différence des notes de bas de page, auxquelles on les apparente parfois, les liens hypertextes ne se contentent pas de faire référence à d’autres ouvrages ; ils vous attirent inexorablement vers ces nouveaux contenus.)

Pour moi, comme pour d’autres, le Net est devenu un media universel, le tuyau d’où provient la plupart des informations qui passent par mes yeux et mes oreilles. Les avantages sont nombreux d’avoir un accès immédiat à un magasin d’information d’une telle richesse, et ces avantages ont été largement décrits et applaudis comme il se doit. “Le souvenir parfait de la mémoire du silicium”, a écrit Clive Thompson de Wired, “peut être une fantastique aubaine pour la réflexion.” Mais cette aubaine a un prix. Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

Je ne suis pas le seul. Lorsque j’évoque mes problèmes de lecture avec des amis et des connaissances, amateurs de littérature pour la plupart, ils me disent vivre la même expérience. Plus ils utilisent le Web, plus ils doivent se battre pour rester concentrés sur de longues pages d’écriture. Certains des bloggeurs que je lis ont également commencé à mentionner ce phénomène. Scott Karp, qui tient un blog sur les média en ligne, a récemment confessé qu’il avait complètement arrêté de lire des livres. “J’étais spécialisé en littérature à l’université et je passais mon temps à lire des livres”, écrit-il. “Que s’est-il passé ?” Il essaie de deviner la réponse : “Peut-être que je ne lis plus que sur Internet, non pas parce que ma façon de lire a changé (c’est à dire parce que je rechercherais la facilité), mais plutôt parce que ma façon de PENSER a changé ?”

Bruce Friedman, qui bloggue régulièrement sur l’utilisation des ordinateurs en médecine, décrit également la façon dont Internet a transformé ses habitudes intellectuelles. “J’ai désormais perdu presque totalement la capacité de lire et d’absorber un long article, qu’il soit sur le Web ou imprimé”, écrivait-il plus tôt cette année. Friedman, un pathologiste qui a longtemps été professeur l’école à de médecine du Michigan, a développé son commentaire lors d’une conversation téléphonique avec moi. Ses pensées, dit-il, ont acquis un style “staccato”, à l’image de la façon dont il scanne rapidement de petits passages de texte provenant de multiples sources en ligne. “Je ne peux plus lire Guerre et Paix, admet-il. “J’ai perdu la capacité de le faire. Même un billet de blog de plus de trois ou quatre paragraphes est trop long pour que je l’absorbe. Je l’effleure à peine.”

Les anecdotes par elles-mêmes ne prouvent pas grand chose. Et nous attendons encore des expériences neurologiques et psychologiques sur le long terme, qui nous fourniraient une image définitive sur la façon dont Internet affecte nos capacités cognitives. Mais une étude publiée récemment (.pdf) sur les habitudes de recherches en ligne, conduite par des spécialistes de l’université de Londres, suggère que nous assistons peut-être à de profonds changements de notre façon de lire et de penser. Dans le cadre de ce programme de recherche de cinq ans, ils ont examiné des traces informatiques renseignant sur le comportement des visiteurs de deux sites populaires de recherche, l’un exploité par la bibliothèque britannique et l’autre par un consortium éducatif anglais, qui fournissent un accès à des articles de journaux, des livres électroniques et d’autres sources d’informations écrites. Ils ont découvert que les personnes utilisant ces sites présentaient “une forme d’activité d’écrémage”, sautant d’une source à une autre et revenant rarement à une source qu’ils avaient déjà visitée. En règle générale, ils ne lisent pas plus d’une ou deux pages d’un article ou d’un livre avant de “bondir” vers un autre site. Parfois, ils sauvegardent un article long, mais il n’y a aucune preuve qu’ils y reviendront jamais et le liront réellement. Les auteurs de l’étude rapportent ceci :

Il est évident que les utilisateurs ne lisent pas en ligne dans le sens traditionnel. En effet, des signes montrent que de nouvelles formes de “lecture” apparaissent lorsque les utilisateurs “super-naviguent” horizontalement de par les titres, les contenus des pages et les résumés pour parvenir à des résultats rapides. Il semblerait presque qu’ils vont en ligne pour éviter de lire de manière traditionnelle.”

Grâce à l’omniprésence du texte sur Internet, sans même parler de la popularité des textos sur les téléphones portables, nous lisons peut-être davantage aujourd’hui que dans les années 70 ou 80, lorsque la télévision était le média de choix. Mais il s’agit d’une façon différente de lire, qui cache une façon différente de penser, peut-être même un nouveau sens de l’identité. “Nous ne sommes pas seulement ce que nous lisons”, dit Maryanne Wolf, psychologue du développement à l’université Tufts et l’auteur de Proust et le Calamar : l’histoire et la science du cerveau qui lit. “Nous sommes définis par notre façon de lire.” Wolf s’inquiète que le style de lecture promu par le Net, un style qui place “l’efficacité” et “l’immédiateté” au-dessus de tout, puisse fragiliser notre capacité pour le style de lecture profonde qui a émergé avec une technologie plus ancienne, l’imprimerie, qui a permis de rendre banals les ouvrages longs et complexes. Lorsque nous lisons en ligne, dit-elle, nous avons tendance à devenir de “simples décodeurs de l’information”. Notre capacité à interpréter le texte, à réaliser les riches connexions mentales qui se produisent lorsque nous lisons profondément et sans distraction, reste largement inutilisée.

La lecture, explique Wolf, n’est pas une capacité instinctive de l’être humain. Elle n’est pas inscrite dans nos gènes de la même façon que le langage. Nous devons apprendre à nos esprits comment traduire les caractères symboliques que nous voyons dans un langage que nous comprenons. Et le médium ou toute autre technologie que nous utilisons pour apprendre et exercer la lecture joue un rôle important dans la façon dont les circuits neuronaux sont modelés dans nos cerveaux. Les expériences montrent que les lecteurs d’idéogrammes, comme les chinois, développent un circuit mental pour lire très différent des circuits trouvés parmi ceux qui utilisent un langage écrit employant un alphabet. Les variations s’étendent à travers de nombreuses régions du cerveau, incluant celles qui gouvernent des fonctions cognitives essentielles comme la mémoire et l’interprétation des stimuli visuels et auditifs. De la même façon, nous pouvons nous attendre à ce que les circuits tissés par notre utilisation du Net seront différents de ceux tissés par notre lecture des livres et d’autres ouvrages imprimés.

En 1882, Friedrich Nietzsche acheta une machine à écrire, une “Malling-Hansen Writing Ball” pour être précis. Sa vue était en train de baisser, et rester concentré longtemps sur une page était devenu exténuant et douloureux, source de maux de têtes fréquents et douloureux. Il fut forcé de moins écrire, et il eut peur de bientôt devoir abandonner. La machine à écrire l’a sauvé, au moins pour un temps. Une fois qu’il eut maîtrisé la frappe, il fut capable d’écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page.

Mais la machine eut un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. “Peut-être que, grâce à ce nouvel instrument, tu vas même obtenir un nouveau langage”, lui écrivit cet ami dans une lettre, notant que dans son propre travail ses “pensées sur la musique et le langage dépendaient souvent de la qualité de son stylo et du papier”.
“Tu as raison”, répondit Nietzsche , “nos outils d’écriture participent à l’éclosion de nos pensées”. Sous l’emprise de la machine, écrit le spécialiste allemand des médias Friedrich A. Kittler, la prose de Nietzsche “est passée des arguments aux aphorismes, des pensées aux jeux de mots, de la rhétorique au style télégraphique”.

Le cerveau est malléable presque à l’infini. On a longtemps cru que notre réseau mental, les connexions denses qui se forment parmi nos cent milliards et quelques de neurones, sont largement établis au moment où nous atteignons l’âge adulte. Mais des chercheurs du cerveau ont découvert que ce n’était pas le cas. James Olds, professeur de neurosciences qui dirige l’institut Krasnow pour l’étude avancée à l’université George Mason, dit que même l’esprit adulte “est très plastique”. Les cellules nerveuses rompent régulièrement leurs anciennes connexions et en créent de nouvelles. “Le cerveau”, selon Olds, “a la capacité de se reprogrammer lui-même à la volée, modifiant la façon dont il fonctionne.”

Lorsque nous utilisons ce que le sociologue Daniel Bell appelle nos “technologies intellectuelles”, les outils qui étendent nos capacités mentales plutôt que physiques, nous empruntons inéluctablement les qualités de ces technologies. L’horloge mécanique, qui est devenu d’utilisation fréquente au 14e siècle, fournit un exemple frappant. Dans Technique et Civilisation, l’historien et critique culturel Lewis Mumford décrit comment l’horloge “a dissocié le temps des évènements humains et a contribué à créer la croyance en un monde indépendant constitué de séquences mathématiquement mesurables”. La “structure abstraite du découpage du temps” est devenue “le point de référence à la fois pour l’action et les pensées”.

Le tic-tac systématique de l’horloge a contribué à créer l’esprit scientifique et l’homme scientifique. Mais il nous a également retiré quelque chose. Comme feu l’informaticien du MIT Joseph Weizenbaum l’a observé dans son livre de 1976, Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul, la conception du monde qui a émergé de l’utilisation massive d’instruments de chronométrage “reste une version appauvrie de l’ancien monde, car il repose sur le rejet de ces expériences directes qui formaient la base de l’ancienne réalité, et la constituaient de fait.” En décidant du moment auquel il faut manger, travailler, dormir et se lever, nous avons arrêté d’écouter nos sens et commencé à nous soumettre aux ordres de l’horloge.

Le processus d’adaptation aux nouvelles technologies intellectuelles est reflété dans les métaphores changeantes que nous utilisons pour nous expliquer à nous-mêmes. Quand l’horloge mécanique est arrivée, les gens ont commencé à penser que leur cerveau opérait “comme une horloge”. Aujourd’hui, à l’ère du logiciel, nous pensons qu’il fonctionne “comme un ordinateur”. Mais les changements, selon la neuroscience, dépassent la simple métaphore. Grâce à la plasticité de notre cerveau, l’adaptation se produit également au niveau biologique.

Internet promet d’avoir des effets particulièrement profonds sur la cognition. Dans un article publié en 1936 (.pdf), le mathématicien anglais Alan Turing a prouvé que l’ordinateur numérique, qui à l’époque n’existait que sous la forme d’une machine théorique, pouvait être programmé pour réaliser les fonctions de n’importe quel autre appareil traitant l’information. Et c’est ce à quoi nous assistons de nos jours. Internet, un système informatique d’une puissance inouïe, inclut la plupart de nos autres technologies intellectuelles. Il devient notre plan et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision.

Quand le Net absorbe un médium, ce médium est recréé à l’image du Net. Il injecte dans le contenu du médium des liens hypertextes, des pubs clignotantes et autres bidules numériques, et il entoure ce contenu avec le contenu de tous les autres média qu’il a absorbés. Un nouveau message e-mail, par exemple, peut annoncer son arrivée pendant que nous jetons un coup d’œil aux derniers titres sur le site d’un journal. Résultat : notre attention est dispersée et notre concentration devient diffuse.

L’influence du Net ne se limite pas aux bords de l’écran de l’ordinateur non plus. En même temps que l’esprit des gens devient sensible au patchwork disparate du médium Internet, les média traditionnels ont dû s’adapter aux nouvelles attentes de leur public. Les programmes de télévision ajoutent des textes défilants et des pubs qui surgissent, tandis que les magazines et les journaux réduisent la taille de leurs articles, ajoutent des résumés, et parsèment leurs pages de fragments d’information faciles à parcourir. Lorsque, au mois de mars de cette année, le New York Times a décidé de consacrer la deuxième et la troisième page de toutes ses éditions à des résumés d’articles, son directeur artistique, Tom Badkin, explique que les “raccourcis” donneront aux lecteurs pressés un “avant-goût” des nouvelles du jour, leur évitant la méthode “moins efficace” de tourner réellement les pages et de lire les articles. Les anciens média n’ont pas d’autre choix que de jouer suivant les règles du nouveau médium.

Jamais système de communication n’a joué autant de rôles différents dans nos vies, ou exercé une si grande influence sur nos pensées, que ne le fait Internet de nos jours. Pourtant, malgré tout ce qui a été écrit à propos du Net, on a très peu abordé la façon dont, exactement, il nous reprogramme. L’éthique intellectuelle du Net reste obscure.

À peu près au moment où Nietzsche commençait à utiliser sa machine à écrire, un jeune homme sérieux du nom de Frederick Winslow Taylor apporta un chronomètre dans l’aciérie Midvale de Philadelphie et entama une série d’expériences historique dont le but était d’améliorer l’efficacité des machinistes de l’usine. Avec l’accord des propriétaires de Midvale, il embaucha un groupe d’ouvriers, les fit travailler sur différentes machines de métallurgie, enregistra et chronométra chacun de leurs mouvements ainsi que les opérations des machines. En découpant chaque travail en une séquence de petites étapes unitaires et en testant les différentes façons de réaliser chacune d’entre elles, Taylor créa un ensemble d’instructions précises, un “algorithme”, pourrions dire de nos jours, décrivant comment chaque ouvrier devait travailler. Les employés de Midvale se plaignirent de ce nouveau régime strict, affirmant que cela faisait d’eux quelque chose d’à peine mieux que des automates, mais la productivité de l’usine monta en flèche.

Plus de cent ans après l’invention de la machine à vapeur, la révolution industrielle avait finalement trouvé sa philosophie et son philosophe. La chorégraphie industrielle stricte de Taylor, son “système” comme il aimait l’appeler, fut adoptée par les fabricants dans tout le pays et, avec le temps, dans le monde entier. À la recherche de la vitesse, de l’efficacité et de la rentabilité maximales, les propriétaires d’usine utilisèrent les études sur le temps et le mouvement pour organiser leur production et configurer le travail de leurs ouvriers. Le but, comme Taylor le définissait dans son célèbre traité de 1911, La direction des ateliers (le titre original The principles of scientific management pourrait être traduit en français par “Les principes de l’organisation scientifique”), était d’identifier et d’adopter, pour chaque poste, la “meilleure méthode” de travail et ainsi réaliser “la substitution graduelle de la science à la méthode empirique dans les arts mécaniques”. Une fois que le système serait appliqué à tous les actes du travail manuel, garantissait Taylor à ses émules, cela amènerait un remodelage, non seulement de l’industrie, mais également de la société, créant une efficacité parfaite utopique. “Dans le passé, l’homme était la priorité”, déclare-t-il, “dans le futur, la priorité, ce sera le système”.

Le système de Taylor, le taylorisme, est encore bien vivant ; il demeure l’éthique de la production industrielle. Et désormais, grâce au pouvoir grandissant que les ingénieurs informaticiens et les programmeurs de logiciel exercent sur nos vies intellectuelles, l’éthique de Taylor commence également à gouverner le royaume de l’esprit. Internet est une machine conçue pour la collecte automatique et efficace, la transmission et la manipulation des informations, et des légions de programmeurs veulent trouver “LA meilleure méthode”, l’algorithme parfait, pour exécuter chaque geste mental de ce que nous pourrions décrire comme “le travail de la connaissance”.

Le siège de Google, à Mountain View, en Californie, le Googleplex, est la Haute Église d’Internet, et la religion pratiquée en ses murs est le taylorisme. Google, selon son directeur-général Eric Schmidt, est “une entreprise fondée autour de la science de la mesure” et il s’efforce de “tout systématiser” dans son fonctionnement. En s’appuyant sur les téra-octets de données comportementales qu’il collecte à travers son moteur de recherche et ses autres sites, il réalise des milliers d’expériences chaque jour, selon le Harvard Business Review, et il utilise les résultats pour peaufiner les algorithmes qui contrôlent de plus en plus la façon dont les gens trouvent l’information et en extraient le sens. Ce que Taylor a fait pour le travail manuel, Google le fait pour le travail de l’esprit.

Google a déclaré que sa mission était “d’organiser les informations du monde et de les rendre universellement accessibles et utiles”. Cette société essaie de développer “le moteur de recherche parfait”, qu’elle définit comme un outil qui “comprendrait exactement ce que vous voulez dire et vous donnerait en retour exactement ce que vous désirez”. Selon la vision de Google, l’information est un produit comme un autre, une ressource utilitaire qui peut être exploitée et traitée avec une efficacité industrielle. Plus le nombre de morceaux d’information auxquels nous pouvons “accéder” est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs.

Où cela s’arrêtera-t-il ? Sergey Brin et Larry Page, les brillants jeunes gens qui ont fondé Google pendant leur doctorat en informatique à Stanford, parlent fréquemment de leur désir de transformer leur moteur de recherche en une intelligence artificielle, une machine comme HAL, qui pourrait être connectée directement à nos cerveaux. “Le moteur de recherche ultime est quelque chose d’aussi intelligent que les êtres humains, voire davantage”, a déclaré Page lors d’une conférence il y a quelques années. “Pour nous, travailler sur les recherches est un moyen de travailler sur l’intelligence artificielle.” Dans un entretien de 2004 pour Newsweek, Brin affirmait : “Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux.” L’année dernière, Page a dit lors d’une convention de scientifiques que Google “essayait vraiment de construire une intelligence artificielle et de le faire à grande échelle.”

Une telle ambition est naturelle, et même admirable, pour deux mathématiciens prodiges disposant d’immenses moyens financiers et d’une petite armée d’informaticiens sous leurs ordres. Google est une entreprise fondamentalement scientifique, motivée par le désir d’utiliser la technologie, comme l’exprime Eric Schmidt, “pour résoudre les problèmes qui n’ont jamais été résolus auparavant”, et le frein principal à la réussite d’une telle entreprise reste l’intelligence artificielle. Pourquoi Brin et Page ne voudraient-ils pas être ceux qui vont parvenir à surmonter cette difficulté ?

Pourtant, leur hypothèse simpliste voulant que nous nous “porterions mieux” si nos cerveaux étaient assistés ou même remplacés par une intelligence artificielle, est inquiétante. Cela suggère que d’après eux l’intelligence résulte d’un processus mécanique, d’une suite d’étapes discrètes qui peuvent être isolés, mesurés et optimisés. Dans le monde de Google, le monde dans lequel nous entrons lorsque nous allons en ligne, il y a peu de place pour le flou de la réflexion. L’ambiguïté n’est pas un préliminaire à la réflexion mais un bogue à corriger. Le cerveau humain n’est qu’un ordinateur dépassé qui a besoin d’un processeur plus rapide et d’un plus gros disque dur.

L’idée que nos esprits doivent fonctionner comme des machines traitant des données à haute vitesse n’est pas seulement inscrite dans les rouages d’Internet, c’est également le business-model qui domine le réseau. Plus vous surfez rapidement sur le Web, plus vous cliquez sur des liens et visitez de pages, plus Google et les autres compagnies ont d’occasions de recueillir des informations sur vous et de vous nourrir avec de la publicité. La plupart des propriétaires de sites commerciaux ont un enjeu financier à collecter les miettes de données que nous laissons derrière nous lorsque nous voletons de lien en lien : plus y a de miettes, mieux c’est. Une lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces compagnies désirent. C’est dans leur intérêt commercial de nous distraire.

Peut-être ne suis-je qu’un angoissé. Tout comme il y a une tendance à glorifier le progrès technologique, il existe la tendance inverse, celle de craindre le pire avec tout nouvel outil ou toute nouvelle machine. Dans le Phèdre de Platon, Socrate déplore le développement de l’écriture. Il avait peur que, comme les gens se reposaient de plus en plus sur les mots écrits comme un substitut à la connaissance qu’ils transportaient d’habitude dans leur tête, ils allaient, selon un des intervenants d’un dialogue, “arrêter de faire travailler leur mémoire et devenir oublieux.” Et puisqu’ils seraient capables de “recevoir une grande quantité d’informations sans instruction appropriée”, ils risquaient de “croire posséder une grande connaissance, alors qu’ils seraient en fait largement ignorants”. Ils seraient “remplis de l’orgueil de la sagesse au lieu de la sagesse réelle”. Socrate n’avait pas tort, les nouvelles technologies ont souvent les effets qu’il redoutait, mais il manquait de vision à long terme. Il ne pouvait pas prévoir les nombreux moyens que l’écriture et la lecture allaient fournir pour diffuser l’information, impulsant des idées fraîches et élargissant la connaissance humaine (voire la sagesse).

L’arrivée de l’imprimerie de Gutenberg, au XVe siècle, déclencha une autre série de grincements de dents. L’humaniste italien Hieronimo Squarciafico s’inquiétait que la facilité à obtenir des livres conduise à la paresse intellectuelle, rende les hommes “moins studieux” et affaiblisse leur esprit. D’autres avançaient que des livres et journaux imprimés à moindre coût allaient saper l’autorité religieuse, rabaisser le travail des érudits et des scribes, et propager la sédition et la débauche. Comme le professeur de l’université de New York, Clay Shirky, le remarque, “la plupart des arguments contre l’imprimerie était corrects et même visionnaires.” Mais, encore une fois, les prophètes de l’apocalypse ne pouvaient imaginer la myriade de bienfaits que le texte imprimé allait amener.

Alors certes, vous pouvez vous montrer sceptique vis-à-vis de mon scepticisme. Ceux qui considèrent les détracteurs d’Internet comme des béotiens technophobes ou passéistes auront peut-être raison, et peut-être que de nos esprits hyperactifs, gavés de données surgira un âge d’or de la découverte intellectuelle et de la sagesse universelle. Là encore, le Net n’est pas l’alphabet, et même s’il remplacera peut-être l’imprimerie, il produira quelque chose de complètement différent. Le type de lecture profonde qu’une suite de pages imprimées stimule est précieux, non seulement pour la connaissance que nous obtenons des mots de l’auteur, mais aussi pour les vibrations intellectuelles que ces mots déclenchent dans nos esprits. Dans les espaces de calme ouverts par la lecture soutenue et sans distraction d’un livre, ou d’ailleurs par n’importe quel autre acte de contemplation, nous faisons nos propres associations, construisons nos propres inférences et analogies, nourrissons nos propres idées. La lecture profonde, comme le défend Maryanne Wolf, est indissociable de la pensée profonde.

Si nous perdons ces endroits calmes ou si nous les remplissons avec du “contenu”, nous allons sacrifier quelque chose d’important non seulement pour nous même, mais également pour notre culture. Dans un essai récent, l’auteur dramatique Richard Foreman décrit de façon éloquente ce qui est en jeu :

Je suis issu d’une tradition culturelle occidentale, pour laquelle l’idéal (mon idéal) était la structure complexe, dense et “bâtie telle une cathédrale” de la personnalité hautement éduquée et logique, un homme ou une femme qui transporte en soi-même une version unique et construite personnellement de l’héritage tout entier de l’occident. Mais maintenant je vois en nous tous (y compris en moi-même) le remplacement de cette densité interne complexe par une nouvelle sorte d’auto-évolution sous la pression de la surcharge d’information et la technologie de “l’instantanément disponible”.”

À mesure que nous nous vidons de notre “répertoire interne issu de notre héritage dense”, conclut Foreman, nous risquons de nous transformer en “crêpe humaine”, étalée comme un pâte large et fine à mesure que nous nous connectons à ce vaste réseau d’information accessible en pressant simplement sur une touche.”

Cette scène de 2001 : l’odyssée de l’espace me hante. Ce qui la rend si poignante, et si bizarre, c’est la réponse pleine d’émotion de l’ordinateur lors du démontage de son esprit : son désespoir à mesure que ses circuits s’éteignent les uns après les autres, sa supplication enfantine face à l’astronaute, “Je le sens, je le sens. J’ai peur.”, ainsi que sa transformation et son retour final à ce que nous pourrions appeler un état d’innocence. L’épanchement des sentiments de HAL contraste avec l’absence d’émotion qui caractérise les personnages humains dans le film, lesquels s’occupent de leur boulot avec une efficacité robotique. Leurs pensées et leurs actions semblent scénarisées, comme s’ils suivaient les étapes d’un algorithme. Dans le monde de 2001, les hommes sont devenus si semblables aux machines que le personnage le plus humain se trouve être une machine. C’est l’essence de la sombre prophétie de Kubrick : à mesure que nous nous servons des ordinateurs comme intermédiaires de notre compréhension du monde, c’est notre propre intelligence qui devient semblable à l’intelligence artificielle.

Source: Internetactus.net(Par Hubert Guillaud)

 



La France intervient dans l'accord entre Google et les éditeurs américains

Le compromis trouvé par le moteur avec certains ayants-droits de livres épuisés aux Etats-Unis pour les numériser et les commercialiser constitue une atteinte au droit d'auteur, selon le ministère français de la culture.

La France veut "garantir le respect du droit d'auteur dans le cadre du contentieux qui oppose Google Books aux auteurs et éditeurs américains", affirme mardi le ministère de la Culture et de la Communication dans un communiqué.

Après avoir numérisé à partir de 2005 des millions d'ouvrages protégés par le droit d'auteur provenant des fonds d'universités américaines, Google et les détenteurs de droits d'auteurs américains sont parvenu fin 2008 à un accord qui prévoit notamment les modalités d'exploitation sur le sol américain des livres numérisés. La justice américaine doit se prononcer en octobre sur sa validité.

"Au-delà du cas particulier des auteurs et éditeurs lésés, cette affaire pose une question de principe, à laquelle la France a toujours manifesté un attachement particulier: le respect du droit d'auteur, qui garantit la rémunération des créateurs et fonde la diversité culturelle", écrit le ministère.

Une menace pour la diversité culturelle

Dans un courrier adressé le 4 septembre au tribunal américain chargé de l'affaire, la France soutient notamment que "le projet de transaction n'est conforme, ni au droit de la propriété intellectuelle, ni au droit de la concurrence et qu'il constitue une menace pour la diversité culturelle", indique le ministère.

Paris entend "veiller à ce que les termes d'une éventuelle homologation" par le juge "ne créent aucun précédent susceptible de conforter la politique du fait accompli suivie en l'occurence par Google".

Une argumentation que la France entend développer lors des auditions qui seront prochainement menées par la Commission européenne sur le sujet.

Lundi, le moteur de recherche américain a fait de premières concessions aux auteurs et éditeurs européens en annonçant que les livres publiés et toujours commercialisés en Europe ne pourront être vendus aux Etats-Unis sous leur forme électronique qu'avec "l'autorisation expresse des ayants droit".

Les éditeurs européens craignent en effet que Google ne profite de l'accord signé avec les auteurs et éditeurs américains pour mettre en vente sans leur autorisation des livres européens, sous prétexte qu'ils ne sont plus disponibles dans le commerce aux Etats-Unis.

 Source: l'expansion.com


CodePlex.org : Microsoft ouvre sa fondation open source



En début de semaine nous apprenions que le groupe Open Invention Network, composé de plusieurs grands défenseurs de Linux (IBM, Sony, Red Hat), tentait de racheter une vingtaine de brevets initialement déposés par Microsoft. Pourtant, la firme de Steve Ballmer vient de créer la surprise en levant le voile sur sa propre fondation open source. Baptisée CodePlex Foundation, cette initiative s'appuie sur les efforts précédemment fournis par Microsoft avec son répertoire de téléchargement public CodePlex.

Si cette fondation se distingue de la librairie open source CodePlex, elle « résout des problèmes similaires avec pour but de rassembler les développeurs open source et commerciaux au sein d'un même endroit afin qu'ils puissent collaborer ». Microsoft explique par ailleurs que contrairement à la fondation Mozilla ou GNOME, CodePlex souhaite gérer un plus large éventail de projets tout en prenant en compte les dépôts de licences et les besoins de propriété intellectuelle des éditeurs commerciaux. Microsoft ajoute : « en ce sens nous souhaitons que la fondation CodePlex soit un complément et non pas un concurrent des autres fondations open source ».

« Nous pensons que les éditeurs de logiciels commerciaux et les développeurs qui travaillent pour eux ne participent pas beaucoup au sein de projets du logiciel libre », est-il expliqué sur le site officiel. Ces derniers temps Microsoft tente de redorer son image et médiatise ses contributions auprès de la communauté. Ainsi, au mois de mars la firme a publié le logiciel !exploitable Crash Analyzer, un outil permettant aux développeurs d'analyser les failles de sécurité des logiciels en cours de développement. Plus récemment, quelques heures avant l'Open Source Convention, la société a également mis à disposition en licence GPL v2 le code de certains de ses pilotes dédiés à la prise en charge réseau Ethernet ainsi qu'aux interfaces de stockage IDE et SCSI.

Mercredi dernier, Jim Zemlin, le directeur de la fondation Linux, s'est exprimé au sujet du rachat des brevets et a publié un billet sur son blog officiel. Il affiche une position clairement hostile à la société de Redmond et déclare qu'« il est temps que Microsoft cesse d'attaquer secrètement Linux tout en clamant publiquement vouloir une interopérabilité ». La fondation CodePlex saura-t-elle convaincre les plus fervents défenseurs du libre ?

Le conseil de direction de la fondation CodePlex est constitué, entre autres, de Sam Ramji, directeur de la stratégie de développement chez Microsoft et particulièrement engagé dans les choix open source de la société. Nous retrouvons également Miguel de Icaza, le fondateur du gestionnaire de fenêtre GNOME et du projet projet Moonlight.

source: l'expansion.fr 


 La fiabilité des serveurs à la loupe

Face aux interruptions de service, toutes les infrastructures informatiques ne sont pas à égalité. Le choix du matériel a son importance, tout comme le niveau de qualification des administrateurs.

ServeursTous les serveurs ne se valent pas quand il s’agit de résister aux plantages. C’est ce que révèle un sondage réalisé par ITIC* auprès de plus de 400 directeurs informatiques d’entreprises diverses dans une vingtaine de pays. Interrogés sur la fiabilité de leurs serveurs et de leurs systèmes opérationnels, les dirigeants interrogés fournissent une information quantitative qu’il est difficile d’obtenir auprès des fabricants de serveurs. L’étude s’est non seulement intéressée au nombre d’interruptions de service répertoriées sur les plates-formes, mais aussi à la nature des évènements qui les ont causées et au temps nécessaire à la remise en route du service. Enfin, l’expérience des administrateurs système en charge a également été mesurée.

Les différents type de plantages

Globalement et sans grande surprise, les sites équipés des plates-formes les plus sophistiquées et dont les administrateurs sont les plus aguerris sont ceux qui ont subi le moins d’interruptions. ITIC a classé les plantages selon trois catégories, et ce sans se préoccuper de savoir si le problème était logiciel ou matériel. La première concerne les interruptions sans gravité et rapidement réparées. Par exemple lorsque quelqu’un éteint accidentellement un serveur. La deuxième catégorie rassemble tous les incidents qui nécessitent entre 30 minutes et 4 heures pour être résolus. Ils peuvent être provoqués par une application qui plante ou une mise à jour qui aurait mal tourné. Bien souvent il faut au moins deux administrateurs pour identifierle problème et y remédier, et parfois, une intervention sur site.

L’importance de la qualification des administrateurs

La troisième catégorie est d’interruption de service la plus handicapante. Elle peut impliquer plusieurs serveurs et entraîner des pertes de données. La résolution de ces incidents nécessite généralement plus de 4 heures de travail. Parmi les serveurs étudiés par l’étude, la gamme IBM Power Systems sous Unix AIX est celle qui connaît le moins d’interruptions. Le niveau de compétence des administrateurs s’avère également déterminant pour diminuer le temps nécessaire à la réparation d’un plantage. L’étude conclut donc en incitant les entreprises à ne pas faire de fausses économies sur la formation et la qualification de leurs administrateurs système.

*Information Technology Intelligence Corp

Source: l'Atelier.fr


Fundraising : l'enseignement supérieur face à la concurrence

 Dopées par la loi autonomie de 2007, les universités sont de plus en plus nombreuses à se lancer dans la levée de fonds privés. Les fondations, partenariales ou universitaires, se créent et beaucoup sont en gestation. Une trentaine selon le ministère. Parmi les difficultés qui les attendent, le problème de la concurrence, d’autant plus aigu dans le contexte de crise économique actuel.

«L’argent privé n’est pas une manne illimitée, surtout en période de crise. Les fondations se multiplient, nous sommes sur-sollicités et il est évidemment impossible de donner à tout le monde» constate Claire Martin, directrice de la Fondation d’entreprise Renault lors d’une conférence organisée par Admical (association promouvant le mécénat d'entreprise en France), le 23 juin 2009.

Autour de la table, des représentants de grandes écoles, d’universités et d’entreprises venus débattre de la place du financement privé dans l’enseignement supérieur, et notamment de la difficulté des universités, nouvelles venues, à s’approprier une part du gâteau.

Les grandes écoles aux avant-postes

Les universités nourrissent souvent un complexe d’infériorité par rapport aux grandes écoles quand il s’agit de récolter des fonds auprès des entreprises. D’abord, parce que les grandes écoles se sont lancées depuis déjà une dizaine d’années et qu’elles disposent de plus de moyens.

Ensuite parce que «la reproduction des élites joue en leur faveur. Les conseils d’administration sont composés d’anciens élèves disposés à favoriser leur alma mater», affirme Axel Kahn.

«L’université porte en elle sa propre concurrence»

Mais le président de l’université Paris Descartes dénonce aussi l’existence de rivaux plus méconnus. «L’université porte en elle sa propre concurrence.» Le généticien fait référence aux RTRA-RTRS (réseaux thématiques de recherche avancés-réseaux thématiques de recherche et de soins réseau) et aux PRES (pôle de recherche et d'enseignement supérieur), nés de la loi de programme pour la recherche de 2006.

«Paris Descartes, par exemple, a quatre RTRA-RTRS, qui ont chacun leur Fondation de coopération scientifique : Imagine pour la génétique, Fondamental pour la psychiatrie, Prem’up pour la maternité et Centaure pour la transplantation. Dans ces domaines, qui sont nos domaines d’excellence, nous récoltons donc déjà des fonds. Comment alors positionner la fondation de l’université ?», s’interroge Axel Kahn.

«Solliciter les entreprises en laissant de côté nos atouts pour ne pas concurrencer nos RTRA, c’est l’échec assuré. Les solliciter sur les mêmes thèmes pour des structures différentes, c’est risquer la confusion, donc le refus.» Régis Bello, président de la Fondation université de Strasbourg, a connu le même problème. «Les chefs d’entreprises connaissent déjà mal les universités. Il est impensable de les confronter à cette stratification complexe», admet-il. «Nous sommes parvenus à mutualiser les moyens et les revenus de la Fondation et de notre RTRA. Mais dans notre cas, nous n’en avions qu’un…»

Les universités au défi de la professionnalisation

Les grandes écoles sont aussi en situation de concurrence entre elles. Elles sollicitent les entreprises à plusieurs niveaux, pour leur propre fondation, mais également pour les pôles d'excellence auxquels elles participent, à l'exemple de ParisTech qui regroupe douze écoles prestigieuses.

Barbara de Colombe, déléguée générale de la Fondation HEC, estime que tout est une question de stratégie : «Il faut définir précisément les positionnements. Les entreprises sollicitées pour ParisTech ne sont pas forcément les mêmes que pour HEC, ou en tous cas, les partenariats proposés sont clairement distincts.»

Pour elle, les universités pèchent par manque de professionnalisme. « Lever des fonds ne s’improvise pas. Avec la crise et la concurrence, les entreprises sont de plus en plus exigeantes. Les personnels doivent être formés, la stratégie pensée, les outils affutés.» Barbara de Colombe ne craint d’ailleurs pas la concurrence des universités. Elle estime au contraire que la multiplication des sollicitations, si les projets sont de qualité, va permettre de sensibiliser les entreprises et d’élargir le marché.

Vers un partenariat universités-grandes écoles ?

Axel Kahn considère que l’avenir est dans l’association universités-grandes écoles. «Inutile de déplorer infiniment la rivalité de ces deux modes d’enseignement. Prenons le meilleur de chacun» conseille-t-il. «Les grandes écoles ont des capacités d’organisation, de formation d’élites et de réseaux hors pair. L’université représente 85% à 90 % de la recherche. Une structure les associant ne peut que séduire une entreprise.» 

Dans cette optique, un double diplôme de médecin-manager, en partenariat avec l’ESSEC, a été ouvert en avril 2009. La création d’un PRES avec Sciences po, l’INALCO et l’EHESP (Ecole des hautes études en santé publique) et d’un master en biotechnologie avec deux chaires à ParisTech est également en cours de finalisation. Le fundraising sera-t-il le ferment de la réconciliation université-grandes écoles ?

En savoir plus :
Enquête Admical-CSA "Quel impact de la crise sur le mécénat ? » de mars 2009.

EDUCPROS.fr


Universités-grandes écoles : la saison des alliances

Accords de double diplôme, écoles doctorales ou programmes de recherche conjoints... Les partenariats noués entre universités et écoles se multiplient. Des mariages annoncés comme gagnants-gagnants, mais qui servent avant tout la stratégie de chacun des établissements. Que cachent réellement les dizaines de rapprochements, promus au niveau institutionnel, notamment par le rapport de Christian Philip et au sein des pôles d'enseignement supérieur et de recherche (PRES) ? Retour sur les raisons profondes de ces alliances à la mode, dans notre dossier.

« Homo ou hétéro, nous constituons un beau couple ! » s'enthousiasme Axel Kahn, président de Paris 5, à l'adresse de Pierre Tapie, directeur général du groupe Essec. Nous sommes le 22 avril 2009, la scène se passe au CNIT, à la Défense, lieu de la conférence de presse. Les dirigeants de ces deux institutions sont réunis avec leurs responsables de formation pour présenter leur nouveau programme intégré, un double parcours « médecine-Essec ».

Masters, MBA, filières mixtes...

Pas une semaine ne se passe sans l'annonce d'un partenariat entre une université et une grande école. À l'instar de ce nouveau cursus pour happy few (seuls six étudiants sont sélectionnés), on peut citer les masters du secteur de la mode entre l'université d'Angers et l'Institut Marangoni, le MBA international commun à l'université de la Sorbonne-Nouvelle et à l'ESC Troyes, les masters bidiplômants entre l'université de technologie de Troyes (UTT) et l'EPF de Sceaux, ou encore les filières mixtes entre l'X et Paris 11, HEC et Sciences po Paris, Sciences po Paris et Paris 4 (voir encadrés ci-dessous)...

Ces quelques exemples sont loin de constituer une liste exhaustive... Et ces mariages ne sont pas tout à fait nouveaux : selon notre dernier recensement, on compte actuellement quelque cent trente masters (recherche ou professionnel) délivrés conjointement par une école (privée, consulaire) et une université.

LRU et PRES : accélérateurs de rapprochements

Pourquoi un tel engouement ? Les récentes réformes du paysage universitaire représentent un premier élément d'explication. Loi LRU, mise en place des PRES, les réformes politiques et le contexte institutionnel poussent et accompagnent ces rapprochements.

Les choses s'accélèrent un peu avec la création des PRES, convient Paul Jacquet, président de la CDEFI et directeur de l'INP Grenoble. La signature de ces pôles régionaux sont des signes forts de partenariat rapproché : les écoles d'ingénieurs veulent tenir toute leur place dans ce processus et ne pas être mises à l'écart. Mais ce rapprochement doit se faire autour de véritables projets communs comme les écoles doctorales ou les codiplômations, et pas seulement pour obtenir un effet de masse. »

Autonomie : des gouvernances plus marquées

« Avec la loi LRU, les universités sont en train d'acquérir une véritable existence institutionnelle, analyse de son côté Pierre Tapie. Le fait pour une université d'avoir une gouvernance forte nous rapproche au sein d'une même culture. Cette bonne stabilité des équipes permet plus facilement de travailler ensemble et de se projeter sur des partenariats à long terme. »

Pierre Tapie insiste d'ailleurs sur le fait qu'Axel Kahn n'est que le troisième président de Paris 5 qu'il ait fréquenté au cours de ses fonctions à l'Essec. Un signe, selon lui, de gouvernance rassurante. Et le directeur général de l'ESSEC, par ailleurs vice-président de la Conférence des grandes écoles, de vouloir clore le débat autour du traditionnel clivage dans le supérieur : « Dauphine ou Assas sont très comparables aux grandes écoles : comme nous, elles sélectionnent fortement leurs étudiants et proposent des formations de grande qualité. Dans bien des cas, la distinction universités-grandes écoles est obsolète. » La codiplômation était d'ailleurs l'une des dix recommandations du rapport de Christian Philip sur le rapprochement des deux systèmes, remis fin 2008 à Valérie Pécresse.

Des logiques de marque

Cela dit, le choix de la mariée ne se fait pas à la légère. Là encore, le rapport Philip insistait sur la nécessité de « politiques de marque fortes » entre université, écoles et organismes de recherche, essentielles pour « développer l'attractivité internationale ».

À cet égard, le rapprochement Essec-Paris 5 est emblématique de cette logique de réseau entre établissements à réputation comparable, débouchant sur de « beaux mariages ». Ces deux institutions ont déjà engagé des coopérations sur d'autres programmes (au sein de l'incubateur Paris Biotech et d'un mastère spécialisé en industries de la santé). Et l'Essec s'est également associée à Paris 2-Assas (doubles diplômes, coopération en matière de recherche).

Chasse aux accréditations et nécessité d'une recherche reconnue

En se rapprochant avec l'une des « Sorbonne », marque identifiée au-delà des frontières, l'ESC Troyes bénéficie également des retombées symboliques et médiatiques de l'institution. Cet accord de l'école consulaire avec Paris 3 et un troisième partenaire (l'université brésilienne, Universidade Federale do Rio Grande Do sul) porte sur un double diplôme MBA-master LEA.

« Nous n'avons pas d'autre choix que de nous rapprocher des universités, tranche Christian Henri, directeur des programmes de l'ESC troyenne. Pour obtenir les accréditations ou décrocher la masterisation, nous devons afficher de bonnes performances en recherche. Toutes les écoles de management tentent de recruter des enseignants-chercheurs ayant un rayonnement national ou international, avec des publications et une équipe de recherche. »

Alliances multiples

Dans cet exemple, la communication autour de ce double diplôme est essentiellement le fait de l'ESC Troyes, déjà partenaire par ailleurs de l'université de Reims (dans le cadre d'une école doctorale) et de l'université de technologie de Troyes.

« Ces doubles diplômes sont aussi avantageux pour nos étudiants qui peuvent ainsi acquérir une compétence très pointue que notre école ne pourrait pas leur offrir toute seule, poursuit Christian Henri. Par exemple, le programme en management du sport proposé à nos étudiants n'a pu s'élaborer qu'avec le partenariat avec l'UTT car c'est un domaine trop spécialisé pour notre établissement. Une dizaine d'étudiants se sont d'ailleurs spécialement inscrits chez nous pour suivre ce programme. »

Des cursus destinés aux happy few

Diversifier et enrichir l'offre de formations auprès des étudiants, profiter de l'expertise et des réseaux professionnels du partenaire font partie des arguments mis en avant dans ce type de coopération. Mais, au final, ces rapprochements semblent en priorité servir la stratégie d'établissements soucieux de renforcer leur image sur un marché de plus en plus concurrentiel et conscients de la nécessité de regrouper leurs forces. Les avantages pour les étudiants restent en revanche plus limités. Dans les faits, seuls une poignée d'entre eux bénéficieront de ces doubles diplômes, produits d'appel pour sélectionner une élite.

Institut Marangoni-université d'Angers : plus qu'une histoire de mode

L'Institut Marangoni et l'université d'Angers ont signé en 2009 un partenariat sur la mode. « Sans ce partenariat avec l'Institut Marangoni, notre établissement n'aurait jamais pu jouer aussi fortement la carte des formations en mode », reconnaît Jean-René Morice qui a suivi ce dossier pour le compte de l'université d'Angers (à travers son institut spécialisé IMIS-ESTHUA).

Le partenariat porte sur une délivrance commune de masters en management des métiers de la mode et de la création. Au départ, c'est l'institut italien spécialisé dans la mode (implanté à Milan, Londres et depuis deux ans à Paris) qui, recherchant un partenaire universitaire français pour pouvoir délivrer à ses étudiants un master, a sollicité l'université d'Angers.

Ce choix était justifié par l'existence dans cet établissement de plusieurs formations touchant aux secteurs de la mode et de l'art de vivre : master management international des arts de la France et licence professionnelle mode et haute technologie en partenariat avec le lycée de la mode à Cholet. L'université place ce partenariat - qui a nécessité plus d'un an de négociations - sous l'angle de la « mutualisation des réseaux et des moyens ».

« Pour l'université, l'avantage est de s'appuyer sur un partenaire avec une histoire, des compétences professionnelles et un réseau d'anciens, mais aussi sur un fort rayonnement international », indique Jean-René Morice.
Outre l'échange de professeurs et de compétences, l'accord stipule que l'Institut Marangoni s'engage à financer le prix de la formation de master 2 - délivrée dans les locaux parisiens de l'institut - à deux ou trois étudiants de l'université par le biais d'une bourse. Un investissement minime, au regard des soixante à quatre-vingts inscrits attendus à la rentrée 2009, mais qui, compte tenu du coût de la scolarité, semble convenir à l'université. « Si l'on considère nos frais d'inscription (434 €) et les leurs (12 800 €), nos établissements sont certes dans des logiques différentes, et cela a d'ailleurs donné lieu à des discussions en CEVU, concède Jean-René Morice. Mais nous avons travaillé pendant un an et demi à rédiger la convention entre les deux parties afin de ne pas donner un chèque en blanc. Par exemple, nous faisons une véritable sélection conjointe des candidats et refusons tous ceux qui n'ont pas le profil ou le diplôme requis. Et le projet a été voté à l'unanimité par le conseil d'administration. »

Double diplôme entre l’X et Paris-Sud 11 : une signature en grande pompe

L’instant se voulait solennel. L’Ecole polytechnique et l’université Paris-Sud 11 ont signé le 19 mai 2009 un accord de double diplôme, dans les salons du ministère de l’Enseignement supérieur et de la Recherche, en présence de Valérie Pécresse. Chacun des acteurs a insisté sur le caractère symbolique et exemplaire de ce nouveau «cursus intégré de très haut niveau».

Dans un contexte politique mouvementé avec une contestation universitaire qui n’en finit pas, la ministre a souhaité saluer le franchissement de cette «ultime frontière» qui «s’inscrit pleinement dans l’action engagée par le gouvernement pour rapprocher universités et grandes écoles ». Une démarche qui entre aussi dans le cadre de l’opération campus du plateau de Saclay

Un cursus de licence renforcé

Mais de quoi s’agit-il réellement ? Les meilleurs étudiants de licence de l’université Paris Sud seront encouragés à passer le concours de l’Ecole polytechnique dédié aux diplômés universitaires. Pour mettre toutes les chances de leur côté, ils suivront des modules de formation complémentaire. «Nous nous appuierons sur nos magistères qui accueillent déjà nos meilleurs éléments à partir de la troisième année de licence», détaille Guy Couarraze, le président de l’université. Une fois à Polytechnique, les étudiants suivront les trois années du cursus puis ils reviendront à l’université pour une dernière année de master afin de recevoir les deux diplômes. Une vingtaine d’étudiants de Paris-Sud 11 devraient être concernés à terme.

Une prépa à l’université

Ce double diplôme répond à la volonté de l’Ecole polytechnique de diversifier ses recrutements. Dix places étaient jusqu’à présent réservées pour des diplômés universitaires français par le biais d’un concours spécifique mais l’Ecole peinait à le faire savoir. Ce nouvel accord permet donc à l’X de se doter d’ «une prépa au sein de l’université», selon les mots de Marion Guillou, la présidente du conseil d’administration de Polytechnique. Un concept qui pourrait s’étendre à d’autres établissements.
L’Ecole polytechnique et l’université Paris-Sud 11 ne souhaitent pas s’arrêter là. Après un double diplôme, neuf masters co-habilités et des projets de recherche commun, la création d’une filière pluridisciplinaire en mathématiques, physique et biologie est aujourd’hui à l’étude.

Paris 4 et Sciences po sur les plates-bandes des prépas

Paris 4-Sorbonne et Sciences po Paris ouvrent à la rentrée deux parcours de trois ans : sciences sociales-lettres et sciences sociales-philosophie. Soixante bacheliers de l'année seront sélectionnés sur dossier et entretien par des jurys mixtes aux deux institutions. La troisième année se passera à l'étranger, dans l'un de leurs établissements partenaires.

Ce cursus débouchera sur la licence de Paris 4 et sur un « diplôme maison » de Sciences po, ce dernier n'étant pas habilité actuellement à délivrer une licence. Les étudiants pourront ensuite intégrer un de leurs masters. « Nous cherchons à attirer de très bons candidats littéraires qui auraient envisagé de s'inscrire en classe prépa », conclut Nicolas Bauquet de Sciences po.

Source: educpros,fr


Crise économique : les universités américaines « à but lucratif » tirent leur épingle du jeu

Fortement touchées par la crise économique, certaines universités américaines devraient néanmoins s'en sortir mieux que d'autres : les «for-profit colleges».

Moins chères que les établissements privés « non profit » pour les étudiants, ces universités privées « à but lucratif » sont bien équipées pour faire face à la récession, à l'heure des coupes budgétaires dans les établissements publics.

Emplois du temps flexibles, formations en ligne, localisations pratiques et soutien personnalisé... autant d'atouts qui séduisent de plus en plus d'étudiants.

Retour sur ce type d'établissement américain particulier, le «for-profit college » en temps de crise, vu de l'ambassade de France aux Etats-Unis (Washington DC).Untexte signé Pascal Delisle, attaché culturel, et sa collègue Isabelle Schöninger.

Le système d'enseignement supérieur américain est, on le sait, d'une très grande diversité, avec près de 4 000 universités accréditées. Parmi les institutions privées accréditées, certaines sont à but lucratif, « for-profit colleges », catégorie qui inclut par ailleurs un grand nombre d'institutions non accréditées (écoles de secrétariat, d'informatique, etc.).

Les for-profit colleges jouent la carte de la diversité

En 2004, 6.7 % des 17,7 millions d'étudiants étaient inscrits dans un for-profit college. S'ils ne représentent que 6.7 % des étudiants américains, ils accueillent en revanche une proportion substantielle d'étudiants issus des minorités : 16% des étudiants d'origine africaine, 14% des hispaniques contre seulement 4% d'étudiants "caucasiens".

Plus cher que les universités publiques, moins cher que les établissements privés à but non lucratif

Les frais d'inscription dans les for-profit colleges sont, en moyenne, plus élevés que dans les universités publiques mais moins importants que ceux pratiqués dans les universités privées à but non lucratif. Il n'empêche que certains for-profit colleges sont de plus en plus connus.

On peut citer à titre d'exemple l'université de Phoenix. Fondée en 1976, elle a aujourd'hui plus de 200 sites de formation, des formations en ligne dans plusieurs pays et plus de 345 300 étudiants. Elle délivre différents types de diplômes (Master,doctorat...).

Bien que toujours en marge du système universitaire américain en termes de réputation et reconnaissance, les for-profit colleges apparaissent cependant bien équipés pour profiter de la récession actuelle au moment où beaucoup, parmi les universités classiques, font face à des coupes budgétaires sévères et que certaines d'entre elles (publiques) se voient même obligées de limiter le nombre de nouveaux étudiants.

Souples et flexibles

Les for-profit colleges ont en effet plusieurs atouts à faire valoir. Tout d'abord, ils ont su répondre à une demande importante et complexe qui est celle des adultes souhaitant suivre des formations dans l'enseignement supérieur. Elles répondent bien aux besoins spécifiques exprimés par le marché du travail et ont aussi su satisfaire les demandes des minorités pour lesquelles l'accès au système universitaire traditionnel reste plus difficile.

Leurs programmes accélérés, emplois du temps flexibles, formations en ligne, localisations pratiques et soutien personnalisé attirent de plus en plus d'étudiants. Indicateur de cette tendance favorable, à l'automne 2008, le nombre d'inscriptions dans les 9 principaux for-profit colleges du pays a progressé plus rapidement que le taux de croissance annuel des 3 dernières années tandis que les marges bénéficiaires réalisées devraient être les plus hautes enregistrées depuis 2005.

Une place privilégiée dans la crise par rapport aux universités publiques…

La crise économique semble renforcer la position de ces universités face au système universitaire classique. Tout d'abord, alors que comme dans toute récession, le nombre de personnes souhaitant suivre des études est en augmentation sensible, beaucoup d'institutions publiques et privées ne sont, soit pas en mesure d'accueillir ces nouveaux étudiants, soit se voient contraintes d'augmenter leurs droits d'inscription.

En raison de la crise, les Etats sont amenés à réduire leur soutien financier aux universités publiques. Certaines universités publiques ont d'ores et déjà annoncé qu'elles allaient limiter le nombre de places pour l'automne 2009. C'est le cas parmi d'autres du système des universités publiques de Californie (California State University) qui annonce être prête à refuser 10.000 nouveaux étudiants.

mais aussi par rapport aux établissements privés (non for profit)

Beaucoup d'universités privées (non for profit), touchées par la raréfaction des dons et par l'effondrement de la valeur de leurs endowments, se voient ainsi dans l'obligation de diminuer les services offerts aux étudiants, de différer les recrutements de professeurs, voire sont contraintes de fermer certains programmes ou de se séparer de professeurs.

Face à l'appauvrissement de leurs étudiants ou de leurs familles, elles doivent aussi (pour celles s'étant engagées à cofinancer les études des étudiants nouvellement acceptés) fournir un volume croissant d'aide financière. Pour faire face, ces universités n'ont d'autre solution que d'augmenter leurs frais d'inscription, voire d'augmenter le nombre total d'étudiants pour les plus attractives d'entre elles, mais avec le risque (pour les moins connues d'entre elles) de perdre une part de leur attractivité à l'égard des nouveaux étudiants au bénéfice des universités for profit.

La rentrée 2009 s'annonce bien

Dans un contexte d'augmentation du nombre d'étudiants candidats, de renchérissement des droits d'inscription dans les universités privées non for profit et d'incapacité des universités publiques à accueillir ne serait-ce qu'autant d'étudiants qu'à la rentrée précédente, les for-profit colleges voient d'un bon oeil se profiler la rentrée 2009.

Non seulement leur modèle économique est solide, mais il continue de progresser : augmentation de leur capacité d'accueil, développement de leur système d'enseignement en ligne. Par ailleurs, certaines de ces universités ont mis en place leur propre système de prêts étudiants. Cerise sur le gâteau, la baisse des tarifs publicitaires engendrée par la crise économique leur a permis d'accroître leur visibilité, avec désormais plus d'un milliard de dollars par an dans la publicité.

A noter : Un rapport plus complet est également disponible sur bulletins-electroniques.com ,

Source: educpros.fr  


 ODF ou OOXML, il est urgent de choisir!

Les deux formats de fichiers bureautiques bénéficient d’une norme ISO. Mais choisir entre les deux n'est pas anodin. Attention aux problèmes d’interopérabilité à venir, comme le montre une étude indépendante.

Le prestigieux institut Fraunhofer de Berlin s'est livré à une étude très poussée de l'interopérabilité des deux formats concurrents de la bureautique. Open Document Format (ODF)1.0, le format implémenté dans OpenOffice.org, StarOffice, NeoOffice ou encore KOffice, a été créé par Sun au début des années 2000, adopté par l'Oasis en 2005 pour devenir une norme ISO en 2006. Norme qui n'a pas été retenue par Microsoft comme format XML d'Office 2007, l'éditeur ayant choisi de créer son propre format XML, Office Open XML (OOXML). Le géant du logiciel s'est empressé de faire reconnaître OOXML comme standard auprès de l'Ecma avant de le présenter à l'ISO. Le débat qui s'est ensuivi a été épique, mais aujourd'hui l'un comme l'autre ont été adoptés par l'ISO en tant que standards.

Les entreprises peuvent retenir l'un ou l'autre de ces formats pour produire et stocker leurs documents. Toutefois, le syndrome du «vendor lock-in» les guette à terme. Car si les deux formats sont tous deux XML, le passage de l'un à l'autre va se révéler problématique, comme le démontre l'institut Fraunhoferdans une copieuse étude de 90 pages consacrée à l'interopérabilité des deux formats, que ce soit pour les documents texte, les feuilles de calcul ou les présentations.

Des formats intrinsèquement incompatibles…

Et les résultats sont éloquents. Pour le traitement de texte – à priori l'application la plus utilisée d'une suite bureautique mais aussi la plus simple en termes de format –, c'est déjà compliqué. Pas de problème pour la sélection des polices de caractères, mais un petit souci déjà pour les italiques. Avec ODF, on distingue italique et texte oblique… une différence inconnue d'OOXML. Avec ce dernier, on peut définir un thème de document, ce qui n'est pas possible avec ODF: une conversion va engendrer des problèmes de police.

Pour la mise en pages, on ne pourra éviter les bizarreries lors d'une conversion: impossible de justifier un seul mot sur la ligne avec OOXML. Ce dernier permet d'empêcher la simple coupe d'un paragraphe sur deux pages, ce qui est plus compliqué avec ODF. Vous voulez mettre une bordure à votre paragraphe ? Facile avec OOXML, impossible avec ODF. Idem pour lui donner un effet de cadre et changer la couleur de cette bordure. Même chose pour placer des annotations sur une portion de texte. C'est possible avec OOXML, impossible avec ODF. Conclusion : impossible pour un convertisseur de garantir un rendu 100 % fidèle dans une traduction de document.

Côté tableur, c'est pire. Ce sont bien évidemment les formules de calcul qui posent problème. Par exemple, OOXML implémente le concept de formule partagée: celle-ci peut être employée sur plusieurs cellules de la feuille. Un concept inconnu dans ODF.

surtout pour les documents de présentation

Le terrain le plus conflictuel entre les deux formats reste néanmoins celui des documents de présentation. L'insertion de texte et d'images ne devrait pas poser de problème de conversion. En revanche, dès que l'on voudra aller plus avant dans le multimédia, les incompatibilités vont se multiplier. ODF n'implémente ni le son ni la vidéo. Il faut biaiser avec les objets OLE pour insérer ces éléments. Les difficultés vont encore se multiplier si l'on veut placer des animations dans la présentation. Dans les deux cas, c'est possible, mais des différences existent, et le diable est dans les détails. OOXML semble mieux armé pour prendre en charge des animations complexes : on peut créer une timeline pour synchroniser les animations, définir des trajectoires complexes, autant de fonctions totalement inconnues d'ODF… et qui ne pourront donc être reportées d'un format à l'autre.

Bref, si vous choisissez d'archiver vos documents au format ODF en espérant un jour vous défaire de la suite Office au profit d'une alternative compatible avec l'OOXML, vous allez au-devant de problèmes d'incompatibilité certains, et même les meilleurs convertisseurs n'y pourront rien. L'inverse est tout aussi vrai, alors attention à votre choix, il vous engage pour longtemps, très longtemps.

Source 01net,net



 Une petite étude des licences et business models des nouveaux éditeurs open source :Tout n’est pas gratuit


On distingue trois grandes familles de logiciels open source: (1) les produits de fondations (Apache, Eclipse, Linux, …), (2) les produits communautaires et (3) les produits d’éditeurs. La question des modèles économiques se pose essentiellement pour ces derniers, dont l'offre constitue une part croissante du patrimoine open source. 
On sait bien que les logiciels open source ne sont pas tous écrits par des bénévoles, le soir après leur travail, pour le plaisir ou pour la gloire. Ils existent, ces développeurs passionnés qui prennent sur leur temps libre pour faire avancer des projets. Ils existent, et on peut les remercier, mais ils n’écrivent au final qu’une toute petite partie des programmes open source que nous utilisons.

Or développer un programme de qualité coûte cher, même s’il est open source. Un peu moins cher peut-être que son équivalent propriétaire, parce que (a) il peut s’appuyer sur d’autres briques open source, pour autant que leur licence le permette, (b) il peut bénéficier de contributions communautaires, et (c) il a probablement plus de développeurs passionnés. Mais tout cela ne fait pas du logiciel à moitié prix.

Puisque développer un programme coûte cher, il faut bien que l’éditeur trouve un retour sur son investissement. Et même une certaine prime de risque, puisque son risque est grand de ne pas rencontrer le succès espéré.

Ce qui pose la question du modèle économique des éditeurs open source, souvent indissociable du

choix de licences. Nous proposons une petite revue de ces modèles, et des grandes tendances du moment.

Vraiment open source?

Certains éditeurs pourraient être tentés d’être «plus ou moins open source», diffuser les sources sans les droits d’utilisation, ou avec différentes conditions restrictives, bref de se proclamer open source sans l’être vraiment.
Heureusement, ce n’est pas possible, et c’est l’apport fondamental d’institutions comme la FSF et l’OSI, que de définir sans ambigüité ce qui est, et ce qui n’est pas, une licence open source.
Les éditeurs open source ne peuvent donc pas tricher, ils doivent diffuser leurs produits sous une licence agréée. Ce qui signifie que les utilisateurs peuvent librement et gratuitement redistribuer lesdits produits, c’est la définition même.


La plupart des éditeurs choisissent la licence GPL, qui présente pour eux deux grands avantages:elle est connue et donc parfaitement lisible, elle est perçue par le marché comme un gage de transparence, (2) elle interdit à d’autres d’intégrer le produit dans un développement propriétaire, et donc de se faire de l’argent sur le dos de l’auteur ou détenteur du droit d’auteur. 

Quels revenus? 

    Pour un éditeur open source, les sources de revenus possibles sont les suivantes:
    - le support et la maintenance
    - les prestations associées: audit, conseil, formations, voire intégration
    - les droits d’utilisation associés à la licence, à une licence non libre, donc.
    - les reversements de prestataires habilités .

    Dans une logique d'une expansion globale et rapide, les éditeurs ne peuvent pas miser beaucoup sur les prestations. Faire l’intégration de son propre produit est tentant au début, mais cela ne permet pas de construire un réseau de partenaires intégrateurs.

    Mais surtout, un modèle économique basé sur la prestation est perçu par les éditeurs, et ceux qui les financent, comme un modèle «non scalable», c'est-à-dire qui ne permettra pas d’augmenter les revenus sans augmenter les effectifs, et donc les coûts. En somme un modèle qui ne permettra pas les taux de marge des éditeurs propriétaires. 

    Modèle 1: faire payer le support


    Certains éditeurs ont un business model fondé presque uniquement sur l'offre de support. Dans cette catégorie on trouve eZ Systems, Nuxeo, Tiny (OpenERP), Spago.
    Il n’y a qu’une version du produit, et une licence unique - open source donc - un seul référentiel de sources, et des correctifs disponibles à tous. Le produit peut être librement téléchargé et déployé, et les «clients» ont le droit d’utiliser le produit sans payer le support.

    Le support étant clairement facultatif, il faut savoir démontrer aux clients les bénéfices qu’ils peuvent en attendre. Auprès des DSI de grands comptes, ce n’est généralement pas trop difficile. En cas de plantage d’une application critique, personne n’imagine d’aller expliquer au président qu’il était possible de souscrire un support mais qu’on avait préféré s’en passer! Et par ailleurs, les grandes DSI perçoivent bien que l’économie est déjà très grande par rapport aux logiciels qu’elles utilisaient précédemment. Mais auprès de plus petites entreprises, la démonstration est parfois plus difficile.
    L'une des difficultés du pur support annuel et que s’il n’a pas servi pendant une année, certains pourront hésiter à le renouveler. Bien sûr, on leur dira: il y a une logique d’assurance dans une prestation de support, ce n’est pas parce que vous n’avez pas été cambriolé cette année que vous allez résilier votre assurance! Mais de leur côté ils répondront: si cette application a tourné sans problème pendant un an, elle pourra bien continuer de tourner un an de plus!

    C’est le problème et le paradoxe du support: plus le produit est de qualité, moins le support est facile à vendre.

    Mais en fait, une majorité de produits sont en permanente évolution, sous la pression concurrentielle. Et c’est la force des produits open source que d’évoluer souvent plus vite que les autres. Le produit n’est jamais totalement stabilisé, toujours en mouvement, et le support toujours précieux pour une utilisation professionnelle.

    Modèle 2: faire payer la stabilité


    D'autres éditeurs choisissent un modèle qui fait payer la stabilité. Ils distribuent leur produit sous deux licences, l'une libre, l'autre non-libre. Mais ce n'est pas tout à fait le même produit.
    Dans cette catégorie, on peut citer Alfresco, Jahia, Pentaho, eXo, Liferay.

    Avec la licence non-libre, on a une version «enterprise-ready», «production grade», «fully tested», etc. tandis que la version libre, intitulée «community», ou encore «labs», est présentée comme pas stable, pas testée, vraiment le truc pour les geeks, limite dangereux, à ne surtout pas déployer en production.

    Le vocabulaire est celui-ci, mais dans les faits les différences ne sont pas toujours bien identifiées. L’éditeur ne peut pas faire vivre deux référentiels de code différents sur le long terme, il faut donc au minimum resynchroniser community et enterprise de temps en temps. En général, la version community est la version en cours de développement, sur laquelle les développeurs interviennent en continu, tandis que la version enterprise est celle qui a été gelée puis validée en profondeur, a reçu différents correctifs et en reçoit en continu, distribués dans le cadre du support.

    Ainsi, paradoxalement, la version community est en avance de phase, elle dispose des dernières fonctionnalités, mais elle est moins stable, soit du fait d’une avance de phase dans les développements, soit du fait d’un retard dans les correctifs. Dans un bon gestionnaire de sources, on pourrait espérer pouvoir extraire la dernière version stable, voir même y réappliquer les patchs, mais ici ce n’est pas le but.
    Le support vient en bundle avec la licence entreprise, dont il est indissociable, tandis qu'au contraire on ne peut espérer aucun support, même payant, sur la version libre.

    Pour l’éditeur, les avantages sont nombreux.
    La version community aide à diffuser le produit, à le faire connaître largement au niveau mondial, tant par les clients potentiels que par les intégrateurs potentiels.
    Et par ailleurs, une fois parti sur la version enterprise et son support annualisé, il est délicat pour le client de revenir à une version community. Le downgrading serait à gérer comme une véritable migration. Il y a donc une forme de fidélisation que ne permet pas le seul support payant.

    A l’inverse, l’inconvénient est que si la version community est trop instable, elle ne contribue pas à la bonne image du produit et à sa promotion. Et si au contraire elle est d’une bonne qualité, elle risque d’être utilisée malgré les mises en garde alarmantes.

    Laisser les utilisateurs expérimenter une version instable n’est pas toujours suffisant. Le processus complet d’adoption est bien souvent: recueil d’information, téléchargement, expérimentation, projet réel non critique, et enfin projet stratégique. Pour beaucoup d’entreprise, la version community doit permettre d’aller jusqu’au projet réel non critique, qui permettra de faire un choix stratégique. C’est en cela que le degré de stabilité doit être étalonné avec soin.

    Modèle 3: 
faire payer les fonctionnalités avancées


    Enfin, le troisième modèle est celui d’une licence double définie selon le niveau de fonctionnalités:

une version GPL avec des fonctionnalités réduites, une version enterprise non libre avec des fonctionnalités avancées.

Dans ce dernier modèle, on trouve par exemple Talend, Jasper, ou encore MySql.
Dans ce cas, il n’y a pas de différence de qualité, de stabilité. Les programmes correspondant au premier niveau de fonctionnalités sont les mêmes. Comme pour n’importe quel programme, le gestionnaire de sources identifie les dernières versions stables, et les derniers builds, mais n’importe qui peut aussi télécharger la dernière version stable. En revanche, les sources de la version enterprise ne sont parfois pas diffusées du tout.
Ne pas définir la différence en termes de qualité offre d’une certaine manière une meilleure image de l’éditeur, de sa capacité à produire un logiciel solide. Elle évite l’association d’idées «libre = instable», qui est assez désagréable et par ailleurs infondée.

Mais ici aussi, toute la difficulté réside dans le tracé de la frontière: il faut en mettre suffisamment dans la version libre pour qu’elle soit largement diffusée et donne l’impression d’un produit riche, et suffisamment limitée ne pas permettre des utilisations à forte valeur ajoutée.

Conclusion
Depuis quelques années, l’open source commercial est une branche particulièrement vivace, et apporte des applications professionnelles de grande qualité. Il faut bien comprendre que la vitalité de ces nouveaux acteurs n’est possible que si un mode de financement équitable du développement est assuré.
L’analyse des business models est importante, mais il faut souligner surtout que l’open source ne se définit pas comme un moyen différent d’acheminer l’argent du consommateur vers le producteur, un intitulé différent en haut de la facture en somme. L’open source se définit surtout par des modèles de développements différents, l’association d’un noyau d’éditeur et d’extensions communautaires amenant une exceptionnelle dynamique de développement, une diffusion plus large apportant des produits plus rapidement matures et stables, et au final, un coût global très favorable, apportant de réels gains de compétitivité. Et on pourrait y ajouter une liberté accrue, un meilleur respect des standards et une pérennité supérieure.

Même pour les plus ardents défenseurs du libre, gagner de l’argent n’est pas interdit : c’est la licence qui définit le logiciel libre et non la gratuité. Les nouveaux éditeurs open source sont en position de challenger, et cherchent un modèle qui respecte les principes de l’open source et qui néanmoins leur assure des revenus, un retour sur l’investissement énorme du développement. Quel que soit le modèle retenu, les nouveaux éditeurs open source sont d'importants contributeurs au patrimoine logiciel open source de l’humanité.

Patrice Bertrand ( Directeur Général de Smile) est auteur du livre blanc intitulé "Introduction à l'open source et au logiciel libre

source; progilibre.com


 Qui contrôle Internet?

Devenu indispensable et universel, Internet est, dit-on, la propriété de tous. Mais est-ce vraiment le cas?

Voilà une invention que Jules Verne n'avait pas imaginée.Internet, ou la possibilité offerte aux habitants de la planète d'accéder à tout moment, d'un peu partout, à la connaissance. Un lien qui peut unir pour le travail, pour les loisirs, des gens éparpillés sur les cinq continents. Internet, c'est l'innovation technologique qui a fait de la planète le «village global» dont parlait le sociologue canadien Herbert Marshall McLuhan dans les années1970.

Très récemment, à l'occasion de la rocambolesque adoption de la loi Hadopi1, le Conseil constitutionnel a eu l'occasion de se prononcer sur le sujet: l'accès à Internet est une composante de la liberté de communication et d'expression défendue par la Déclaration des droits de l'homme et du citoyen de 1789. Bref, de balbutiant au début des années1990, Internet fait aujourd'hui partie intégrante de nos vies quotidiennes.

On a donc beaucoup de mal à imaginer qu'Internet soit juste un conglomérat anarchique d'ordinateurs communiquant les uns avec les autres, sans contrôle. Pour qu'un internaute basé à Kuala Lumpur puisse consulter sans problème le site Web de la Bibliothèque nationale de France, il faut bien qu'il y ait un minimum de concertation.

N'y a-t-il pas, quelque part, un «directoire» d'Internet? Une instance qui prendrait toutes les décisions? De fait, il existe une polémique internationale portant sur la «gouvernance» d'Internet, avec une accusation, récemment réitérée par la Commission européenne, de mainmise américaine sur le Net.

Une histoire de stratégie

Pour percer les mystères de la Toile, il faut étudier son fonctionnement technique. Parmi la multitude de technologies employées dans Internet, quelles sont celles qui sont réellement fondamentales? Une fois celles-ci identifiées, il est plus facile de comprendre qui est aux manettes. Internet n'est pas le fruit du hasard, mais bel et bien le résultat du travail de chercheurs, d'informaticiens, dont le but était l'interconnexion de machines. Et pour tout dire, il s'agit de l'évolution d'une réalisation militaire américaine. La volonté de faire communiquer entre eux des ordinateurs distants de chercheurs remonte au début des années1960, et a été initiée par la Darpa(Defense Advanced Research Projects Agency), le service des recherches avancées du département de la Défense américain. Les axes de recherche étaient d'ailleurs très notablement influencés par des considérations militaires: dans les réflexions initiales, on retrouve les traces de la volonté de mettre au point un système de communication capable de se maintenir, même en cas d'attaque nucléaire. Le projet de la Darpa aboutit à la mise en place d'un réseau décentralisé nommé Arpanet.

Petit à petit, des universités furent incluses dans le projet, participant au développement de ce premier grand réseau informatique. Toujours sous la houlette de la Darpa, cet Internet naissant va petit à petit être géré par la National Science Foundation (NSF), une agence gouvernementale américaine dédiée au soutien de la recherche scientifique fondamentale, à partir de 1977. Mais les liens avec l'administration militaire américaine restent extrêmement forts: si la NSF aide au développement du réseau, sa gestion au quotidien relève de l'Internet Assigned Numbers Authority (IANA), un service de la Darpa.

Internet devenant de plus en plus ouvert, interconnectant de plus en plus de réseaux civils, les militaires américains décident, en 1983, de s'en détacher pour créer Milnet, leur propre réseau. Pour s'occuper du développement de l'Internet civil, c'est alors la National Telecommunications and Information Administration (NTIA) qui prend la main, une agence gouvernementale dépendant du département du Commerce, le ministère du Commerce.

L'importance de plus en plus grande d'Internet, l'apparition de plus en plus d'acteurs, d'organismes chargés de définir des normes, de sociétés commerciales opérant des services commerciaux basés sur Internet, a abouti à une très forte pression sur l'administration Clinton afin qu'Internet ne soit plus sous la houlette du seul gouvernement. En 1998 est créée l'Internet Corporation for Assigned Names and Numbers (Icann). Il s'agit d'une société privée, de droit californien, qui a repris le rôle du NTIA et qui, surtout, exerce ce que l'on appelle aujourd'hui la fonction IANA, absolument fondamentale: par l'exercice de cette fonction, l'Icann décide de tout ce qui touche à l'attribution des noms de domaine dans le monde entier…

Une histoire de noms

Finalement, Internet se résume à un mode de communication entre ordinateurs sur un réseau. Ce qui n'est pas une mince affaire! Il faut établir un langage précis, s'assurer que tous les ordinateurs le comprennent, éviter les situations cacophoniques où tout le monde se parlerait en même temps, etc. Bien sûr, afin que les ordinateurs puissent communiquer, ils doivent en premier lieu pouvoir s'identifier. C'est la base même d'Internet: tous les ordinateurs doivent disposer d'une adresse IP, un identifiant unique, qui prend la forme d'une série de quatre nombres séparés par un point. Mais voilà, il faut impérativement que les adresses soient véritablement uniques: il serait impossible de se connecter à un site Web avec un navigateur si son adresse IP renvoyait vers des dizaines d'ordinateurs disséminés dans le monde. Il faut donc veiller à ne pas attribuer les adresses IP n'importe comment.

C'est l'Icann qui, en premier ressort, détermine quelles sont les plages d'adresses IP disponibles dans le monde et qui a le droit de les utiliser. Localement, ce sont des organismes que l'on appelle les RIR (registre Internet régional) qui distribuent les adresses IP que l'Icann leur a attribuées. Il existe cinq RIR. Celui qui gère les adresses IP pour l'Europe s'appelle Ripe-NCC.

Mais l'adresse IP numérique, vitale pour permettre aux ordinateurs de se reconnaître, est très peu pratique pour les utilisateurs. On dispose donc également d'adresses textuelles, celles que nous utilisons sous la forme www.microhebdo.com, www.01net.com, www.africespacenet.com , par exemple. Il s'agit du système des noms de domaine. Pour le comprendre, il suffit de lire à l'envers l'adresse: www.elysee.fr signifie qu'il s'agit d'un ordinateur enregistré en France (le domaine.fr), couvrant les activités de l'Elysée (.elysee), et s'occupant d'afficher le site Web (www).

C'est très pratique mais, pour que cela fonctionne, il faut, à chaque connexion, traduire aux ordinateurs l'adresse lisible en adresse IP numérique. Interviennent alors les serveurs de noms de domaine (Domain Name System ou DNS) : quand on tape l'adresse www.microhebdo.com dans un navigateur Web, une première requête est faite à un serveur de nom de domaine qui indique les serveurs qui peuvent fournir une réponse pour le domaine.com. L'un de ces serveurs précisera alors quel autre serveur est apte à aiguiller dans la zone elysee.fr. Et enfin, ce dernier serveur pourra donner l'adresse IP complète du site recherché. Cette séquence d'interrogation est réalisée pour chaque consultation de site. Les serveurs capables d'effectuer la toute première étape, aiguiller vers les serveurs qui gèrent les domaines dits de premier niveau (.com, .org, .fr…), sont appelés les serveurs racines du DNS. Ils ne sont que treize dans le monde.

Les treize serveurs vitaux

Attention toutefois, chacun de ces serveurs a de nombreux miroirs, et parfois, ils ne sont même pas hébergés à un seul endroit. En tout, ces treize serveurs, absolument vitaux pour le fonctionnement d'Internet, sont répartis dans le monde dans près de 170 endroits. Et, bien qu'au quotidien ils soient supervisés par des sociétés privées, des universités ou des administrations, il ne s'agit que de délégations fournies par l'Icann, décisionnaire en dernier lieu. Qu'il s'agisse donc des adresses IP numériques ou des noms de domaine, le maître, c'est l'Icann.

Il existe une kyrielle d'organismes qui participent à la régulation d'Internet et l'établissement des standards: W3C; Internet Society (Isoc) ; Internet Architecture Board (IAB); Internet Engineering Task Force (IETF); Forum de la gouvernance Internet (FGI), etc. Mais en dernière instance, le fonctionnement d'Internet dépend principalement de l'Icann qui tire son pouvoir d'un contrat le liant au ministère du Commerce américain, qui en nomme tous les membres.

Les conséquences politiques sont réelles: en 2005, par exemple, le nouveau domaine en .xxx devait être ouvert, permettant d'identifier plus facilement les sites à caractère pornographique. L'Icann avait donné son accord. Mais à deux jours de la signature finale de l'acte fondateur, l'Icann a revu sa position et bloqué la création du nouveau domaine: le ministère du Commerce américain, sous la pression de pétitions d'organisations conservatrices, avait en effet signifié son refus de créer le .xxx.

D'autres faits, comme les conditions d'attribution des délégations pour la gestion des noms de domaine .iq, pour l'Irak, et .af, pour l'Afghanistan, montrent une mainmise politique américaine sur Internet.

Une histoire de politique

De fait, en imaginant un scénario de fiction de conflit armé, les Etats-Unis, de par le contrôle qu'ils exercent sur l'Icann et son partenaire technique, la société VeriSign, sont la seule nation qui pourrait «rayer» d'Internet un pays entier, en décidant de couper soudainement sonextension.

La Commission européenne, par le biais d'une communication de Viviane Reding, commissaire chargée de la Société de l'information et des médias, a appelé, en juin dernier, à plus de transparence et de responsabilité multilatérale dans la gouvernance de l'Internet. Mais les faits ne semblent pas lui donner raison: depuis les attentats du 11septembre, l'attitude des Etats-Unis, qui étaient en passe de se retirer progressivement afin de laisser la gouvernance d'Internet au secteur privé, s'est complètement modifiée. Une échéance très importante approche, car le 30septembre 2009 se termine le contrat qui lie l'Icann au gouvernement américain.

Une occasion de mettre en place une nouvelle approche plus multilatérale? Certainement pas. Le gouvernement américain a donné un signal fort, il y a quelques semaines, en choisissant le nouveau président de l'Icann. L'homme, Rod Beckstrom, n'est autre que l'ancien directeur du Centre national de la cybersécurité (NCSC) des Etats-Unis. Le message est on ne peut plus clair: Internet est un domaine stratégique dont, pour des raisons de défense nationale, les Etats-Unis ne sont pas prêts à lâcher le contrôle


Qu'est-ce que c'est ?

Internet
Le mot Internet est la contraction de Internetworking of networks (réseau des réseaux). Internet, que l'on appelle aussi couramment le Net, et plus rarement la Toile, est un ensemble de réseaux d'ordinateurs reliés entre eux à l'échelle de la planète. A l'aide de logiciels de navigation, les utilisateurs (que l'on appelle alors des internautes) peuvent communiquer et échanger des informations. Le Web n'est qu'un sous-ensemble de ce réseau, au même titre que la messagerie, les forums, la messagerie instantanée, etc.

Adresse IP
Code attribué aux ordinateurs connectés sur Internet utilisant le protocole TCP/IP. Il fonctionne un peu à la manière d'un numéro de téléphone. L'adresse IP permet de distinguer un ordinateur, ou tout appareil connecté, d'un autre. Cette adresse est constituée d'une suite de quatre nombres entre 0 et 255 séparés par des points comme, par exemple, 111.22.33.44.

Domain Name Server
Ordinateur –que l'on appelle serveur de nom de domaine – dont le rôle est d'assurer la correspondance des adresses de type
www.microhebdo.com avec une adresse IP, afin d'acheminer correctement les messages envoyés.

Extension
Abréviation que l'on trouve à la fin des adresses électroniques et qui indique la nature du site ou le pays d'origine (voir ci-dessous).

Nom de domaine
Les domaines identifient des sous-parties ou des régions du réseau Internet. Ils sont désignés par des abréviations situées à la fin des adresses électroniques, que l'on appelle aussi extensions. Le suffixe .com indique qu'il s'agit d'un site dont le domaine est commercial ou généraliste, le .edu qu'il est universitaire, le .fr qu'il est français. Les noms de domaine se composent de groupes de lettres toujours séparés par un point de la partie précédente de l'adresse. Plusieurs noms de domaine peuvent se succéder, comme dans notre exemple: ré Cette adresse email est protégée contre les robots des spammeurs, vous devez activer Javascript pour la voir. .

 source: microhebdo.com


Quand le micro-blogging devient vecteur d'enseignement

Les universités montrent un engouement sans précédent pour des services comme Twitter. Par contre, son entrée dans les moyens d'enseignement fait encore débat.

De plus en plus de professionnels du monde de l’éducation se tournent vers l’utilisation des médias sociaux pour innover. Et principalement dans les facultés comme le démontrent les travaux de Faculty Focus, site Internet spécialisé dans les recherches sur l’enseignement supérieur. Seul un dixième des universitaires accoutumés à Twitter l’utiliseà des fins pédagogiques. En revanche, l’étude révèle que la plupart des facultés interrogées reconnaissent le média social est un outil d’apprentissage des plus pratiques à certains égards. Il est ainsi considéré comme un moyen efficace de partage, de relais et de transfert des informations relatives à la vie universitaire.

Une question d’interactivité

Quant aux professeurs qui usent du micro-blogging comme vecteur d’enseignement, ils témoignent d’un engouement positif de la part des élèves. Les professeurs remarquent dans l’ensemble une nette amélioration de l’implication personnelle et une meilleure participation de l’ensemble d’une classe. «C’est un point fort que de développer cette méthode participative tournée vers l’interactivité», commente pour L’Atelier Michel Guillou, conseiller adjoint aux TIC au rectorat de l’académie de Versailles. «C’est une aide significative pour les élèves et leurs révisions, afin de répondre à leurs questions après un cours ou avant un examen important». Aussi, bien utilisé, Twitter peut devenir un élément structurant des cours en ligne. Comme pour les cours de langues par exemple, où l’écriture de simples posts permet une pratique quotidienne et adaptée à la vie numérique de l’étudiant.

À double tranchant

L’étude de Faculty Focus met également l’accent sur une grande partie des facultés qui reste sceptiquequand à l’utilisation d'équivalents Twitter. Ils hésitent à en faire usage pour plusieurs raisons. Beaucoup d’enseignants interrogés jugent tout d’abord la pertinence de son mode de fonctionnement inadapté à un apprentissage de qualité. Les médias sociaux représentent à leurs yeux un moyen d’expression propice à un appauvrissement de l’écriture. «Il peut toujours y avoir des comportements déviants lorsqu’on laisse de côté le lien tangible et les relations traditionnelles entre élèves et professeurs au profit des échanges numériques», ajoute Michel Guillou. Une autre partie des professionnels avoue tout simplement ne pas savoir s’en servir ou ne pas avoir le temps de s’y adonner pleinement. «Il est vrai que cela implique une plus grande disponibilité et un engagement plus personnel de la part de l’enseignant».,

source: l'Atelier.fr


Les écoles américaines peinent à passer au collaboratif

OutOutre-atlantique, les outils Internet dans les établissements sont perçus par les responsables comme un moyen d'améliorer l'apprentissage et l'enseignement. Leur usage réel reste pourtant l'apanage de quelques privilégiés.

Les écoles américaines sont les pionnières de l'utilisation du Web 2.0 dans l'éducation. Pourtant un rapport du Consortium for School Networking pointe le décalage entre la perception des responsables scolaires de cet outil et son implémentation et utilisation réelles. L'étude montre que les directeurs d'écoles sont conscients des opportunités qu'offre le Web 2.0 dans l'enseignement et l'apprentissage. Mais qu'ils sont passifs dans son utilisation et ne mettent pas tout en œuvre pour pleinement le développer.

Un déploiement limité

Le problème qui se dégage du rapport est que l'emploi intensif des outils Internet est encore limité à des classes pionnières. Autre point, les proviseurs et principaux rejettent complètement des éléments comme les réseaux sociaux ou les messageries instantanées. De plus, un certain nombre pense que l'accès à Internet doit être limité à des sites d'éducation agréés par l'administration scolaire. L'intérêt principal du Web 2.0est d'être considéré comme une solution pour conserver l'attention et l'intérêt des étudiants dans la classe.

Des avantages reconnus

Les conseillers d'orientation, eux aussi, dénoncent une exploitation insuffisante des fonctions collaboratives des applications web de deuxième génération. D'autant qu'ils les voient comme des instruments particulièrement adaptés aux études sociales, la littérature, les sciences et la lecture. Autre point mis en avant, leur mise en place améliore la capacité des élèves de primaire et d'élémentaire à innover. L'étude a porté sur les données fournies par les administrateurs de mille deux cents écoles interrogés sur le rôle des médias digitaux dans les écoles américaines. Cette étude a été financée par la fondation Mac Arthur.

soussource: l'atelier.fr


Universités américaines : la politique d'affirmative action passée au crible

Le commissaire à la Diversité et à l'Egalité des chances, Yazig Sabeg, propose de mettre en place des indicateurs de la diversité dans son rapport rendu le 7 mai 2009 à Nicolas Sarkozy. L'occasion de revenir sur les politiques américaines d'affirmative action menées dans les universités. Nous vous proposons une synthèse d'études sur le sujet signée Pascal Delisle, attaché culturel de l’ambassade de France à Washington, et sa collègue Florence Barnier. Les résultats de l’étude « Diversity and Affirmative Action in Higher Education » concluent notamment que la suppression de telles politiques, basées sur le critère racial et souvent critiquées se solderait par une baisse de 35 % du nombre d'étudiants issus de minorités dans les universités les plus renommées du pays, et d'environ 5 % sur l'ensemble d'entre elles.

L'étude "Diversity and Affirmative Action in Higher Education" (1), réalisée par des chercheurs et professeurs de la "Tepper School of Business" de l'université Carnegie Mellon - et financée par la "Mac Arthur Foundation" et la "National Science Foundation"- analyse l'impact qu'aurait la suppression des politiques d'"affirmative action" à base raciale sur le système universitaire américain.

La baisse du nombre d'étudiants issus de minorités serait immédiate et substantielle, tout particulièrement dans les universités les plus prestigieuses du pays. Le rapport souligne également les effets qu'auraient des mesures alternatives de nature non raciale, telles qu'on peut les observer dans les Etats ayant déjà abandonné les politiques d'"affirmative action". La situation californienne est à cet égard un véritable cas d'école, qui confirme les résultats de cette analyse, publiée dans "The Journal of Public Economic Theory".

Accorder un traitement préférentiel aux minorités sous-représentées

Aux Etats-Unis, l'"affirmative action" renvoie au traitement préférentiel accordé aux personnes issues de "minorités sous-représentées", à savoir les Noirs américains, les Hispaniques, les Amérindiens et les Asiatiques, minorités qui pour certaines d'entre elles ont souffert par le passé, à des degrés divers, d'un régime juridique discriminatoire. Nous proposons ici un point d'étape sur les politiques universitaires d'"affirmative action" basées sur le critère racial dont l'objectif est la diversification ethnique et raciale du corps étudiant.

Instaurées dans les années 1960 puis très rapidement généralisées, ces politiques sont menées dans l'ensemble du territoire américain à l'exception de cinq états qui les ont depuis interdites (Californie, Texas, Floride, Washington et Michigan). L'"affirmative action" est aujourd'hui très largement remise en cause en raison de ses effets parfois pervers et souvent paradoxaux.

Une baisse de 35% des étudiants issus des minorités dans les universités renommées

L'étude confirme s'il en était besoin l'effet, toujours aussi puissant, des politiques d'"affirmative action" sur la représentation des minorités dans l'université américaine. La suppression de tout dispositif d'"affirmative action" aurait ainsi pour conséquence une diminution drastique de la proportion d'étudiants issus de minorités inscrits dans les meilleures institutions du pays.

L'absence de prise en compte du facteur "racial" (race-blind ou "colorblind") dans les procédures d'admission et la distribution des aides financières se solderait ainsi par une réduction de 35 % du nombre d'étudiants issus de minorités dans les universités les plus renommées du pays, et une diminution d'environ 5 % sur l'ensemble du système universitaire.

Si les étudiants issus de minorités pâtiraient très largement d'un renoncement à toute mesure d'"affirmative action", les étudiants non issus de minorités ne verraient quant à eux qu'une très faible amélioration de leur situation relative.

Un effet inattendu : la baisse du niveau académique global des étudiants

Le rapport de la Tepper School se concentre également sur les conséquences inattendues que l'abandon de l'"affirmative action" pourrait avoir sur le niveau académique des étudiants. Les auteurs du rapport prévoient ainsi une chute importante des résultats obtenus au SAT ("Scholastic Aptitude Test") (2) par l'ensemble des étudiants inscrits dans les universités les plus sélectives.

Les experts ont en effet pu conclure que, même lorsque l'"affirmative action" a été proscrite par la loi, les universités les plus prestigieuses ont pris d'autres dispositions afin de conserver une présence significative d'étudiants issus de minorités au sein de leur établissement.

Ainsi, en cas de suppression de l'"affirmative action" à base raciale, les universités s'appuieraient sur d'autres critères tels que l'origine géographique pour recruter des jeunes issus de minorités.

Or le recours à des catégories comme le code postal comme élément d'appréciation des dossiers de candidature se solderait par l'admission d'étudiants certes essentiellement issus de minorités, mais pas uniquement, et aux scores SAT relativement bas, là où le système actuel (fondé sur l'appréciation globale du dossier de l'étudiant, car il faut rappeler qu'il n'existe pas de quotas ethniques en la matière) privilégie les étudiants issus de minorités ayant des résultats élevés.

Une approche ethnique qui correspond de moins au moins à la réalité socio-économique

Cela conduirait ainsi à une baisse du niveau moyen des étudiants issus de minorités inscrits dans les meilleures universités. A l'inverse, les universités moins prestigieuses attireraient un nombre plus important de ces étudiants issus des minorités, ayant obtenu des scores élevés au SAT.

Cet effet inattendu révèle aussi en partie la fragilité de cette politique à base ethnique qui au moment où l'appartenance à une minorité n'est plus nécessairement synonyme d'exclusion sociale ou de faible niveau d'éducation, donne un avantage perçu comme illégitime à des jeunes de classes aisées dont les scores SAT permettraient de se battre à armes égales avec les "caucasiens".

En d'autres termes, si l'approche ethnique conserve ses avantages, elle correspondrait de moins en moins à la réalité socio-économique du pays et exposerait par ailleurs les jeunes étudiants issus de minorités à un regard sceptique de la part de leurs camarades sur le bien fondé académique de leur admission.

L’exemple californien avec la suppression de l’affirmative action

Le cas de la Californie est exemplaire à cet égard. En effet, depuis l'abolition de l'"affirmative action" en Californie par la Proposition 209 (amendement à la constitution de Californie), UCLA et UC Berkeley qui sont les deux universités les plus prestigieuses de Californie, ont enregistré respectivement une baisse de 44 % et 23 % du nombre d'étudiants afro-américains entre 1999 et 2006.

A l'inverse, les autres universités de Californie ont vu la proportion d'étudiants afro-américains augmenter sensiblement, de l'ordre de 40 % en moyenne. Ces deux tendances s'appliquent également aux étudiants hispaniques.

Alors que dans l'Etat de Californie, la population d'origine hispanique est devenue majoritaire depuis 2000, le nombre d'étudiants hispaniques a proportionnellement diminué dans les universités les plus cotées par rapport aux étudiants "caucasiens" et augmenté parallèlement dans les universités de deuxième rang.

La minorité asiatique tire son épingle du jeu

Si la Proposition 209 s'est révélée être à double tranchant pour les étudiants afro-américains, elle s'est avérée très largement profitable pour les étudiants d'origine asiatique quelle que soit l'université fréquentée même s'il existe là encore des écarts selon la renommée de l'établissement. A UCLA et UC Berkeley, le nombre d'étudiants américano-asiatiques est passé respectivement de 2202 et 2303 en 1996 à 2529 et 2533 en 2000, soit une croissance respective 14 % et 10 %.

Dans les universités moins prestigieuses, les taux de croissance sont bien supérieurs. Par exemple, l'université UC Santa Cruz a enregistré une hausse de 156 % du nombre d'étudiants d'origine asiatique. Dans les universités de niveau moyen, le nombre d'étudiants issus de la minorité asiatique a généralement augmenté plus rapidement que le nombre d'étudiants caucasiens, si bien que la proportion de jeunes américano-asiatiques par rapport aux jeunes Blancs est bien supérieure qu'auparavant.

De façon surprenante, la suspension de l'"affirmative action" profite à la minorité asiatique. L'excellent niveau académique des étudiants d'origine asiatique et la forte croissance démographique de cette minorité sont en grande partie à l'origine de ce phénomène.

Obama souhaite faire évoluer l’affirmative action pour tenir compte du critère économique

A mesure que la situation socio-économique des "minorités" perd de son homogénéité, et à mesure que beaucoup, parmi les minorités, rejettent un mode d'identification ethnique par ailleurs lui-même de moins en moins adapté au métissage croissant de la société américaine, se pose la question du futur de l'"affirmative action".

Si les soucis d'ouvrir les universités (et la société en général) à l'ensemble des composantes de la société américaine reste présent, ce sont les modalités de l'affirmative action qui, tôt ou tard, vont évoluer.

Comme le président Obama l'a suggéré tout au long de sa campagne, les politiques universitaires d'"affirmative action" ne doivent plus se baser sur le seul critère racial mais également sur des critères socio-économiques plus à mêmes d'assurer l'égalité des chances et la parité entre les différents groupes ethniques.

(1) Dennis Epple, Richard Romano, Holger Sieg, "Diversity and Affirmative Action in Higher Education". The Journal of Public Economic Theory (JPET), août 2008.

(2) SAT : Examen d'entrée à l'université


Discrimination positive VS affirmation action

L'"affirmative action" aux Etats-Unis ne doit pas être confondue avec la discrimination positive en France. La discrimination positive consiste à accorder un traitement préférentiel aux groupes ayant fait l'objet de discrimination par le passé, en se basant sur des critères socio-économiques et non raciaux.

Les sources utilisées :

The Impact of a Ban on Affirmative Action, Scott Jaschik (14/01/2009)

Universal Ban on Affirmative Action Would Shrink Minority Presence At Top-Tier Colleges by More Than One-Third, Finds Carnegie Mellon Study,

Mark Bud (14/01/2009)

The Specter of Affirmative Action in French Higher Education, Daniel Sabbagh and Agnes Van Zanten

(15/07/2007)

The Effects of Proposition 209 on California: Higher Education, Public Employment, and Contracting,

Charles L. Geshekter (25/09/2008)

sourceEducpros,fr


L'adoption des technologies à l'école est une question de culture

 La culture de son pays a un impact sur l'adoption d'Internet. Le constat est valable dans le milieu éducatif : des attitudes comme l'individualisme font percevoir différemment l'introduction de ces solutions à l'école.
Le facteur culturel explique en partie les différentes approches et maîtrise des outils technologiques d'un pays à l'autre. Voilà l'une des conclusions d'une étude menée par une équipe de chercheurs espagnols* sur l'influence de la culture du pays d'origine sur la perception et l'adoption d'Internet par les individus. Et selon eux, de telles conclusions s'appliquent aussi à l'environnement scolaire : les différences culturelles ont un impact non négligeable sur l'attitude et le comportement du corps enseignant sur l'utilisation du web comme base d'apprentissage et de connaissance. Les chercheurs ont étudié l'importance de deux concepts : l'individualisme et la peur de l'incertitude dans l'utilisation d'applications Internet.

Individualisme et peur de l'inconnu

Ce dernier critère étant lié au niveau de tolérance collective envers ce qui est considéré comme ambigu ou incertain. Selon les scientifiques, les cultures qui font montre d'un haut degré de peur de l'incertitude ont tendance à considérer ce qui est différent comme dangereux. Elles ne sont du coup pas les plus à même à accueillir le web au sein de leurs supports d'apprentissage. "Il y a une relation entre la culture des enseignants et leur réaction quand il s'agit d'utiliser des solutions high-tech dans l'environnement scolaire", souligne ainsi Manuel Jesus Sanchez, professeur à l'université de Séville. Pour l'étude, ils se sont penché sur les pays des blocs nordique (Danemark, Suède, Finlande, Norvège) et méditerranéen (Espagne, Grèce et Portugal).

Un outil utile

Résultat : "Pour les enseignants individualistes et ceux ayant une faible appréhension de l'inconnu, les applications web sont perçues comme utiles et comme un outil. C'est le cas pour le corps enseignant nordique", ajoute le scientifique. Le concept d'utilité étant perçu par eux comme la possibilité d'améliorer la réalisation des tâches sur une base individuelle. La simplicité d'utilisation est cependant vue comme un point négatif pour les enseignants nordiques car elle n'incite pas à être proactif. De précédentes recherches s'étaient focalisées sur les différences culturelles entre les Etats-Unis et le Japon. L'étude a été publiée dans le journal Computers & Education.

*des universités de Séville et de Grenade

source: L'Atelier.fr


Conférence de l’Unesco : les universités de « classe mondiale » sur la sellette

«Le battage médiatique entourant les universités de niveau international dépasse largement les besoins éducatifs et le potentiel de recherche de bon nombre de pays, surtout en période de crise économique mondiale » dénonce Jamil Salmi, auteur du nouveau rapport de la banque mondiale Le défi d’établir des universités de niveau international (voir fichier en pdf ci-dessous), présenté lors du sommet de l’Unesco à Paris le 6 juillet 2009.

Un modèle inadapté aux besoins des pays émergents

Lors d’une session consacrée aux «Universités de classe mondiale », plusieurs intervenants ont critiqué le modèle des universités d’excellence issu des classements internationaux du type de celui de Shanghai. Il ressort que ce modèle d’établissement, qui assimile systématiquement l’excellence à la recherche, n’est pas adapté aux besoins des pays émergents. Selon le rapport de la Banque mondiale, « les pays pressés de construire des universités internationales d’élite devraient déterminer s’ils peuvent se permettre de dépenser les sommes élevées qu'impliquent la construction et la gestion de telles institutions sans nuire au reste du système éducatif du pays. »

Jamil Salmi a ainsi pris l’exemple du Brésil, «dixième plus grande économie et sixième plus gros constructeur de voitures au monde mais dont aucune université ne figure parmi les 100 premières universités du classement mondial ».

Pour une excellence de l’enseignement

De son côté, Dirk Van Damme, directeur du Centre pour l’éducation, la recherche et l’innovation (CERI) de l’OCDE a dénoncé l’obsession illusoire de l’excellence des établissements d’enseignement supérieur. « Cette quête d’excellence disperse l’énergie de ces institutions qui devraient plus se concentrer sur l’innovation pour répondre aux vrais défis du XXIème siècle. En matière d’excellence, les universités ne doivent pas se concentrer sur la recherche, il faudrait aussi des établissements d’excellence en enseignement qui offrent une véritable plus-value aux étudiants.» Dirk Van Damme a rejoint les critiques contre les rankings internationaux, qui, en matière de création et transfert de connaissances, donnent une vision « simpliste d‘une situation complexe.»

Le contre-modèle des universités polytechniques

Pour l’expert de la Banque mondiale, le décalage dans certains pays, entre des institutions d’excellence et des débouchés économiques insuffisants, risquerait d’aggraver la fuite de cerveaux. Jamil Salmi soutient que de nombreux pays devraient se concentrer d’abord sur le développement des meilleures universités nationales possibles, en prenant peut-être comme modèle certains établissements d’enseignement supérieur américains (créés grâce à une donation foncière du gouvernement fédéral) ou des universités polytechniques d’Allemagne et du Canada.

Selon lui, ces institutions mettraient l'accent sur les divers besoins d'apprentissage et de formation de la population étudiante et de l'économie domestique. En concentrant leurs efforts sur la communauté et l’économie locales, M. Salmi explique que ces institutions pourraient amener un développement plus efficace et plus durable que ne le feraient leurs aspirations de renommée internationale.

Institut 2IE : quand l’Afrique lutte contre le «brain drain»

Former des techniciens et ingénieurs qui resteront au pays : depuis 40 ans, l’Institut international d’ingénierie de l’eau et de l’environnement (2IE www.2ie-edu.org/ ) réussit le pari de lutter contre la fuite des cerveaux africains. Basé à Ouagadougou au Burkina-Faso, l’établissement créé par 14 pays francophones, avec le soutien de la France, a formé plus de 3000 professionnels. Il accueille aujourd’hui 1000 étudiants en formation initiale sur place et 450 étudiants en formation à distance.

Il affiche un taux de placement de 97 % des diplômés (à 6 mois) et une insertion sur le continent africain pour 95 % d’entre eux. Surtout, l’Institut 2IE a attiré cette année 2500 candidats venus de 36 pays différents, preuve que «le continent africain peut être une terre d’immigration pour les études ».

Depuis 2008, 2IE s’autofinance (frais de scolarité, prestation diverses en formation continue et réponses aux appels à projets). Les subventions des Etats étrangers sont strictement réservés à l’investissement. En avril 2009¸ l’Institut a par ailleurs vu son diplôme d’ingénieur accrédité par la Commission des titres d’ingénieurs (CTI).

source:educpros.fr


 

Conférence Unesco : le e-learning doit faire doubler le nombre d'étudiants des pays du Sud

« Le système traditionnel d’enseignement ne peut relever les défis liés à la massification de l’enseignement supérieur. Si on veut progresser dans la société de la connaissance et augmenter le taux d’inscription dans le supérieur, on a vu les progrès permis par les TIC et le privé ». Abdul Waheed Khan, le sous-directeur pour la communication et l’information de l'Unesco, a donné le ton d’entrée de jeu lors de l’atelier consacré aux TIC (technologies de l’information et de la communication) à la conférence mondiale sur l’enseignement supérieur de l’Unesco organisé du 5 au 8 juillet 2009 à Paris.

Doubler le nombre d'étudiants dans les pays pauvres

Egalement président de l’université de New Delhi, Abdul Waheed Khan a clairement affiché sa volonté de s’appuyer sur les TIC pour faire passer la part des étudiants des pays en voie de développement de 10 % à 20 %. Une volonté qui fait aussi écho aux déclarations du président sénégalais Abdoulaye Wade fin mai 2009 insistant sur le fait que la technologie permettait désormais aux étudiants africains d'accéder aux meilleures universités.

"A l'heure où l'Europe ferme ses portes, le e-learning est la réponse pour les étudiants africains" avait-il polémiqué lors de la conférence internationale E-learning Africa. Didier Oillo, directeur de programme "Innovation par les Tice" de l'Agence universitaire de la francophonie (AUF), a d’ailleurs rappelé opportunément que les Pays-Bas avaient économisé 133 millions d’euros grâce à ces nouvelles méthodes de transmission des connaissances.

Les enseignants, moteurs de la FOAD

Une question qui remet au cœur de la réflexion la place de l’enseignant dans la FOAD (formation ouverte et à distance). « Aucune réforme ne peut être menée sans les enseignants », a commenté Zhang Deming pour qui « le fossé numérique doit se transformer en opportunité numérique ». Le président de la Shanghai Television University a montré comment son établissement, créé dans les années 1960, avait réussi à former 4 millions de Chinois en s’appuyant sur l’implication intense des enseignants et la transformation de l’enseignement avec des campus virtuels et la diffusion de programmes par le réseau satellitaire.

Si Dele Braimoh, son homologue sud-africain de l’UNISA, un établissement d’enseignement à distance en ligne, partage la volonté de mettre les TIC au service de la massification de l’enseignement supérieur, il a davantage mis l’accent sur les difficultés pour impliquer les universitaires dans l’EAD. Autres freins au développement des TIC : les insuffisances techniques de base comme le manque d’électricité ou le manque de personnels formés mais aussi la faible reconnaissance de la part du gouvernement pour ce type d’enseignement.

« Les jeunes mèneront la révolution en quittant nos institutions »

Si certains participants de la conférence de l'Unesco ont mis en avant les réticences des enseignants, d’autres ont prévenu que le fossé avec les jeunes, nés avec les nouvelles technologies et fortement demandeurs de TICE, prévaudrait. « Les jeunes mèneront la révolution en quittant nos institutions. Qui blogue sur ces conférences, qui utilise les Twitters ? Les jeunes fabriquent leur propre connaissance. Notre réflexion aujourd’hui n’a que peu de sens. Ce qu’il faut regarder, ce sont les usages que la jeunesse fait des nouvelles technologies », a lancé Frits Pannekoek, président du Conseil international pour l’éducation ouverte et à distance et président de l’université Athabasca (Canada). Un fossé désormais culturel !

TIC : une révolution conceptuelle

 Le fossé numérique (taux d'équipement ou taille de la bande passante), comme dans les années 1980 n'a pas disparu. Les intervenants des pays développés, émergents et en voie de développement ont en outre fait le constat de nouveaux fossés, en train de se creuser ou de se réduire. Au titre des évolutions inattendues, Frits Pannekoek, a insisté sur la moindre domination de l’anglais sur Internet et sur la plus large présence des cultures autochtones. 

 En revanche, il voit se dessiner un nouveau fossé numérique « plus profond et plus complexe», avec l’impression donnée que « les appareils mobiles donneraient un apprentissage suffisamment bon mais pas excellent [comme le système traditionnel d’enseignement] ». Autre crainte mise en perspective, « si les connaissances sont mises en open source, va-t-on continuer à investir dans le capital humain des universités ? ». Pour Frits Pannekoek, « les TIC transforment la connaissance en bien abondant alors qu’il était rare. La transformation de la nature et de la valeur de la connaissance nous fait changer de paradigme ». 

Source:educpros,fr


Un

Une blogueuse accusée de diffamation va porter plainte contre Google


Une blogueuse qui publiait anonymement des commentaires diffamatoires à l'encontre d'une mannequin canadienne et dont Google avait révélé le nom à la justice, a indiqué lundi qu'elle prévoyait de porter plainte contre le géant de l'internet.

Une blogueuse qui publiait anonymement des commentaires diffamatoires à l'encontre d'une mannequin canadienne et dont Google avait révélé le nom à la justice, a indiqué lundi qu'elle prévoyait de porter plainte contre le géant de l'internet.

Rosemary Port, une étudiante en technologie de la mode de 29 ans, a annoncé au New York Daily News qu'elle prévoyait d'engager des poursuites contre Google en demandant 15 millions de dollars de dommages et intérêts.

Le 17 août, une juge de New York, Joan Madden, avait ordonné au géant de la toile de lui livrer des informations sur la personne ayant posté des commentaires diffamatoires à l'encontre de la mannequin canadienne, Liskula Cohen.

Rosemary Port avait été identifiée dans la foulée comme l'auteur du blog anonyme crée grace au programme de Google, Blogger.com, et sur lequel la mannequin était décrite comme "psychotique, menteuse, débauchée... une ordure".

La blogueuse accuse maintenant la mannequin d'avoir mis son blog sous le feu des projecteurs, dans l'article que publie le New York Daily News lundi.

"C'est devenu un cirque et ce n'est pas de ma faute. Avant qu'elle ne porte plainte j'avais sans doute deux visiteurs par jour sur mon blog: moi et elle", explique la blogueuse. "J'ai le sentiment que ma vie privée a été violée"..

Salavatore Strazzullo, l'avocat de Rosemary Port, a estimé dans le quotidien américain que le droit de parler anonymement est inhérent au premier amendement de la constitution américaine. "Ce droit ne doit-il pas être élargi au nouvel espace public qu'est internet ?", s'interroge-t-il.

La mannequin a décrit la blogueuse comme une personne "négligeable" dans sa vie et a décidé de ne pas la poursuivre pour diffamation.

De son côté, Google a indiqué ne pas tolérer les "cyber intimidations" tout en respectant la vie privée.

"Nous sommes aux côtés de toutes les personnes qui sont victimes d'intimidations" mais "nous prenons aussi grand soin de respecter la vie privée et ne donnerons des informations à propos d'utilisateurs que si nous y sommes contraints par la justice", explique Google.

source: l'atelier.fr


 

Comment Google Books s'est imposé dans la numérisation des livres

Cinq ans après son lancement, Google Books a écrasé ses concurrents sur le marché de la numérisation des livres. La firme californienne est désormais incontournable, comme le montre ses négociations avec la Bibliothèque nationale de France. L'Expansion.com dresse la chronologie d'un succès.

2004

6 octobre : présentation de Google Print (qui deviendra Google Book Search en septembre 2005) à la Foire du Livre de Francfort. Ce service permet de repérer et de consulter des extraits de livres, puis de commander les ouvrages en ligne.
14 décembre : la société californienne lance sa bibliothèque numérique. Elle annonce avoir passé des accords avec les universités de Stanford, Oxford, Harvard, du Michigan et la bibliothèque publique de New York dont elle va numériser les ouvrages. Son objectif est de mettre en ligne 15 millions de livres en six ans.

2005

Février : la Bibliothèque de France (BNF) lance un projet de numérisation de la presse française. Des milliers de journaux parus entre 1830 et la Libération seront publiés gratuitement, en plus des 80 000 ouvrages anciens déjà disponibles en ligne grâce au programme Gallica.
Mars-avril : Google commence un tour d'Europe des éditeurs. Ses représentants au Salon du livre de Londres puis de Paris tentent de convaincre les éditeurs européens de les rejoindre.
16 mars : Jacques Chirac demande au ministre de la Culture et au président de la BNF d'étudier la

possibilité de bâtir une contre-offensive européenne au projet de la firme américaine.
28 avril : six pays européens demandent à l'UE de lancer une bibliothèque numérique européenne. La veille, les bibliothèques nationales de dix-neuf pays européens s'étaient déclarées prêtes à s'associer pour contrer le programme de numérisation de livres de Google.
12 août : Google annonce qu'il suspend pour trois mois une partie de son projet afin de négocier avec les éditeurs avant de lancer sa bibliothèque virtuelle.
1er septembre : la firme de Mountain View annonce l'extension de son projet à cinq pays européens. La société appelle les bibliothèques et éditeurs allemands, espagnols, français, italiens et néerlandais à lui soumettre les ouvrages qu'ils souhaitent voir indexés par le moteur de recherche.
20 septembre: la Guilde des auteurs américaine qui représente plus de 8000 écrivains entame une "class action" contre Google pour violation des droits d'auteur.
3 octobre: Yahoo! présente un projet concurrent de celui de son rival, "Open Content Alliance". Il réunit à ses côtés l'organisation à but non lucratif Internet Archive, les bibliothèques des luniversités de Californie et de Toronto, Hewlett-Packard et Adobe Systems. L'OCA s'engage à respecter les droits d'auteur.
19 octobre: Google est poursuivi en justice par l'Association of American Publishers (AAP), au nom de cinq grands groupes d'édition : McGraw-Hill, Pearson Education, Penguin Group USA, Simon and Schuster et John Wiley and Sons.
26 octobre: Microsoft annonce qu'il va financer la numérisation de 150000 ouvrages et adhère à la librairie de l'OCA, initiée par Yahoo.
2 novembre: selon le Financial Times, Microsoft négocie un partenariat avec la British Library pour numériser 25 millions de pages de documents.
3 novembre: Google ouvre l'accès à sa bibliothèque virtuelle.

2006

20 janvier: Livres-Hebdo révèle que Google a commencé à numériser des centaines de titres de plusieurs éditeurs français sans leur autorisation.
6 juin: l'éditeur français La Martinière, qui contrôle notamment les éditions du Seuil, attaque Google en justice pour contrefaçon et atteinte au droit de la propriété intellectuelle.
Août: l'Université de Californie, qui détient 100 bibliothèques réparties sur 10 campus, rejoint le projet de Google.
26 septembre: l'université Complutense de Madrid rejoint le projet de Google Livres. C'est la première signature d'un accord avec une université européenne non anglophone.
Octobre: Microsoft signe un accord avec l'université américaine de Cornell. La société espère lancer début 2007 un service concurrent du programme de Google.
20 novembre: la bibliothèque municipale de Lyon lance un appel d'offres pour numériser 500 000 livres antérieurs à 1900 et donc libres de droit.
7 décembre: Microsoft lance son moteur de recherche, Live Search Book, provenant des fonds de la British Library et des universités de Californie, de Cornell et de Toronto. La société a aussi conclu quelques jours plus tôt un accord de numérisation avec la New York Public Library.

2007

10 janvier: Google signe un accord avec cinq bibliothèques catalanes, dont la Bibliothèque nationale de Barcelone.
6 mars: la bibliothèque de Bavière signe avec Google un accord de numérisation de ses ouvrages tombés dans le domaine public.
22 mars: mise en ligne du prototype français d'Europeana, la première ébauche de la Bibliothèque numérique européenne; 12 000 documents dont 7 000 issus des collections de la BNF sont accessibles.
Mai: Google signe un accord avec les bibliothèques universitaires de Lausanne (Suisse) et de Gand (Belgique) pour la numérisation des ouvrages appartenant au domaine public.

 source: l'Atelier.fr 


Enseignement supérieur : Le Cameroun ouvre une seconde université virtuelle d'Afrique centrale

L’Université virtuelle d’Afrique centrale a été inaugurée jeudi dernier sur le campus de Ngoa-Ekelle, par le ministre le l’Enseignement supérieur.

Flambant neuf, le bâtiment devant abriter la seconde Université virtuelle d’Afrique Centrale (UVAC) est baptisé « Bloc pédagogique 1300 ». Il est constitué de cinq amphithéâtres de 150 à 250 places, de six salles de travaux dirigés de 70 places chacune, de deux bureaux pour la recherche, deux autres pour les juniors entrepreneurs. Autre composante, deux salles informatiques de 48 postes d’ordinateurs, reparties entre la faculté des arts, lettres et sciences humaines (FALSH) et la faculté des Sciences. Plus remarquable enfin, le rez-de-jardin, où sera logé d’ici quelques mois, l’Université virtuelle de la sous-région Afrique centrale. Aux dires du Pr. Crispin Pettang, directeur des infrastructures, de la planification et du développement de l’université de Yaoundé I, « la future UVAC est entièrement équipée par un don du gouvernement indien ». Jeudi dernier, c’est sous le son de la fanfare et les acclamations des étudiants de l’UYI que cette infrastructure a été inaugurée, par le Pr. Jaques Fame Ndongo, ministre de l’Enseignement supérieur (Minesup) et le Pr. Oumarou Bouba, recteur de l’UYI. Présence tout aussi remarquable, celle du ministre de la Promotion de la Femme et de la Famille. Le Pr. Marie-Thérèse Abena Obama étant, par ailleurs, présidente de la commission de passation des marchés de l’UYI.

En fait, la Cameroun a été choisi en 2006 par ses pairs de l’Afrique centrale, pour abriter le Centre sous-régional de l’Afrique centrale, du projet Inde-Union africaine de réseau virtuel. Et selon le Minesup, « l’université de Yaoundé I a été choisie pour abriter l’UVAC parce qu’elle est la plus ancienne des institutions universitaires du Cameroun. Et aussi parce qu’elle couvre pratiquement tous les différents domaines de formation en Afrique centrale ». Déjà, une première UVAC a été ouverte au Cameroun, sur le campus de l’école Polytechnique, un autre établissement de l’UYI. Avec cette autre réalisation, les universités publiques au Cameroun s’élèvent au nombre de 9.

Selon Thierry Hervé Vaho Mbiaha, représentant des étudiant, « ce type de réalisation suscite un sentiment de confiance, parce qu’elle vient résoudre quelque peu le problème d’insuffisance de salles de cours ». Pour sa part, le Pr. Valentin Nga Ndongo a relayé la joie des enseignants de cette université, « qui trouvent là un cadre de travail agréable, presque semblable à celui de leurs homologues d’ailleurs».  

sources: cameroontribune


  

Des outils multimédias interactifs pour lutter contre le sida chez les jeunes

Afin de faire face à la pandémie de VIH-sida, l’UNESCO développe en collaboration avec ses partenaires des outils multimédias interactifs conçus sous forme de jeux informatiques éducatifs. Ces outils à la fois pédagogiques et divertissants sont destinés à informer les jeunes sur la prévention en s’appuyant sur des connaissances scientifiques et des données adaptées à la culture et au genre.

Pour l’UNESCO, les technologies de l’information et de la communication (TIC) constituent le moyen le plus efficace pour créer et diffuser l’information et les connaissances sur le VIH-sida, afin de toucher directement les jeunes.

Le contenu scientifique des jeux, destinés aux 15-24 ans, est développé en coopération avec le Centre hospitalier universitaire de Heidelberg (Allemagne). Axé sur la prévention et les traitements, il met en particulier l’accent sur le cycle de vie du virus VIH, les défis posés par le développement de nouveaux traitements et la résistance antivirale.

Le docteur Barbara Mueller, du Département de virologie du Centre hospitalier universitaire de Heidelberg, considère que “ces outils multimédias interactifs peuvent être utilisés à des fins pédagogiques dans les écoles mais aussi dans certains cas dans les universités”.

Deux scénarios ont déjà été testés à Kiev (Ukraine) auprès de groupes de jeunes de 15-21 ans, au cours de sessions de visualisation organisées par le programme PATH (Program for Appropriate Technology in Health). Selon Mme Katya Gamazina, directrice du programme PATH en Ukraine, “ces outils multimédias interactifs peuvent aider aussi bien les enseignants que les parents à aborder avec les jeunes des questions sensibles, comme les comportements de prévention pour se protéger du VIH-sida”.

Une fois au point, les jeux informatiques en anglais, russe et ukrainien seront disponibles gratuitement sur Internet pour tous ceux qui veulent en savoir plus sur le VIH-sida.

           

L’UNESCO lance un appel à propositions pour son pavillon à ITU Telecom World 2009

L’UNESCO lance un appel à propositions pour la conception de son pavillon “Autonomisation des personnes handicapées grâce aux TIC” au salon ITU Telecom World 2009, qui se tiendra du 5 au 9 octobre 2009 à Genève (Suisse). Le pavillon de l’UNESCO voudrait servir de vitrine aux applications des TIC destinées aux handicapés dans les domaines de l’éducation, des sciences, de la culture, de la communication et de l’information.

Le salon ITU Telecom World 2009 de l’Union internationale des télécommunications (UIT) est une manifestation majeure dans le monde des télécommunications et des TIC. Cet événement est un véritable réseau mondial qui réunit les principaux acteurs du secteur des technologies de l’information, des organisations gouvernementales, de la société civile, des organisations internationales et du monde universitaire. Afin de répondre aux défis communs que doivent relever aujourd’hui les sociétés de l’information, les applications des télécommunications et des TIC sont présentées de manière thématique pour montrer leur utilité et leur portée dans les secteurs sociaux en mutation.

Environ 10 pour cent de la population mondiale souffre de divers handicaps. Si leurs conditions de vie varient en fonction du type de handicap, toutes ces personnes ont en commun de subir différentes formes de discrimination et d’exclusion sociale. Même lorsqu’on ne dispose pas d’infrastructures bien organisées, les technologies de l’information et de la communication (TIC) offrent aux handicapés de nouveaux moyens de compenser leurs déficiences physiques ou fonctionnelles leur permettant d’avoir accès au savoir et de favoriser leur insertion socio-économique.

Le pavillon de l’UNESCO servira de vitrine pour présenter les applications, dispositifs et services utilisant les TIC qui ont fait preuve de leur efficacité pour aider les personnes handicapées dans les domaines de l’éducation, des sciences, de la culture, de la communication et de l’information. Il offrira également une plate-forme pour établir de nouveaux partenariats et des actions de coopération entre les différents acteurs.

Vous trouverez de plus amples renseignements sur l’appel à propositions pour la conception du pavillon de l’UNESCO au salon ITU Telecom World 2009 dans ce document (PDF).


 

Un projet de mise en réseau de la diaspora africaine pour améliorer le secteur agricole

La National peace corps association (NPCA), organisation à but non lucratif destinée à la promotion d'actions en faveur de la paix, lance un projet de mise en réseau de la diaspora africaine pour réfléchir sur les moyens d'améliorer le secteur agricole sur le continent. Une plate-forme web pour interconnecter les personnes souhaitant participer à l'initiative est en place, sous le nom de "Africa rural connect" (ARC). Le principe du projet est de constituer une "communauté sociale d'action", en ligne, afin de générer et de partager des idées, recueillir des suggestions et des données utiles aux programmes de développement en direction des populations pauvres des zones rurales en Afrique. Des prix seront décernés aux meilleures idées de business plan, pour un montant global de 50 000 dollars.

Le réseau social de compétences de la diaspora africaine mis en œuvre par NPCA vise à faire émerger des propositions d'action sur les enjeux agricoles, notamment concernant la production de denrées alimentaires, le stockage, les modalités de transport des marchandises, les modèles commerciaux du secteur, l'accès à l'information, la recherche, etc. Il s'agit de mutualiser les connaissances et propositions afin d'éviter de "réinventer la roue" et inscrire les projets dans des réalités de terrain. Les internautes sont donc invités à partager leur expérience en ligne, et émettre des recommandations pour répondre aux besoins concrets des populations locales.

Les internautes qui se connectent à la plate-forme se créent un profil d'utilisateur pour dialoguer avec les autres membres du projet "Africa rural connect". Les inscriptions sont possibles jusqu'au 31 octobre 2009. Le premier prix récompensera à hauteur de 25 000 dollars le projet le plus pertinent, le second prix est de 10 000 dollars et le troisième de 5 000 dollars.

Source: Africa rural connect, www.peacecorpsconnect.org/arc


 

Un exemple de réussite dans le secteur des médias : Radio Salus au Rwanda

Née en 2004 de la collaboration entre l’Université nationale du Rwanda (UNR) et l’UNESCO, Radio Salus est l’une des premières stations de radio privées qui a commencé à émettre après le génocide de 1994. Elle fait preuve depuis sa création d’une efficacité et d’un professionnalisme qui lui valent une reconnaissance générale.

Aujourd’hui Radio Salus a atteint l’un de ses principaux objectifs de renforcement des capacités dans le secteur des médias, mais elle a aussi réussi à diversifier la programmation radiophonique dans l’ensemble du pays. Son rayonnement s’étend même jusque dans les pays voisins, puisqu’elle est écoutée dans certaines parties du Burundi et de la RDC. Elle est également devenue un instrument de l’émancipation des femmes et le porte-parole des exclus, en particulier des personnes handicapées.

Lorsque Radio Salus a été officiellement inaugurée en novembre 2005, 26 étudiants et professeurs de l’UNR avaient suivi la première session de formation organisée par l’UNESCO avec le financement du gouvernement japonais. En novembre 2008, le nombre de journalistes à avoir reçu une formation via Radio Salus s’élevait à 102 et beaucoup d’étudiants continuent à y travailler en tant que journalistes stagiaires. Après l’obtention de leur diplôme, les étudiants qui ont été formés à Radio Salus ont un réel avantage compétitif pour trouver un emploi. Par exemple, cinq stagiaires diplômés ont été engagés à plein temps à TV Rwanda grâce à leur expérience à Radio Salus.

Nduhura Dominique, directeur de l’Ecole de journalisme et de communication de l’UNR, explique le rôle formateur qu’a Radio Salus pour les étudiants : “Quand on rencontre certains étudiants de deuxième année, on a du mal à croire qu’ils ne sont qu’en deuxième année car ils savent déjà faire des reportages et traiter l’information. Quand ils arrivent en troisième ou quatrième année, ils sont déjà très compétents, en grande partie grâce à Salus. C’est donc une expérience extrêmement enrichissante.”

Outre son objectif de renforcement des capacités et son rôle formateur pour les étudiants de l’UNR, le projet de Radio Salus avait pour mission de renforcer la démocratie au Rwanda en offrant un nouvel organe pour la liberté d’expression et la libre circulation de l’information. La formation des étudiants et des professionnels par la station a été un facteur déterminant de la diversification de la programmation au Rwanda et a également contribué à renforcer la confiance dans les radios privées en tant que moyen viable de communication de masse. La bonne réputation dont jouit Radio Salus lui vaut de se classer parmi les trois premières stations du pays. C’est un lieu de débat où les questions les plus diverses sont abordées.

l est également significatif que Radio Salus soit la seule station indépendante ayant des correspondants permanents dans au moins deux régions du pays. En outre, la station produit une quantité considérable de programmes éducatifs et informatifs originaux et la diversité des émissions n’a pas d’égal au Rwanda : chaque semaine plus de 25 émissions différentes sont diffusées 24 heures sur 24, 7 jours sur 7, essentiellement en kinyarwanda mais aussi en kiswahili, en anglais et en français. Elles sont consacrées à l’éducation, l’agriculture, la santé, le sida, l’histoire rwandaise, l’actualité, la gestion des conflits, le sport et la caféiculture. Radio Salus est classée au premier rang pour ses programmes sportifs.

Radio Salus accorde une large place aux jeunes, aux femmes et aux personnes handicapées. Grâce à ses émissions éducatives sur l’économie, l’environnement, le sida, la santé et l’histoire, elle est devenue un instrument de développement socio-économique pour beaucoup de Rwandais. Par exemple, Radio Salus a contribué à former les petites entreprises locales et les femmes pour leur permettre de faire la promotion de leurs produits et services. Elle soutient aussi les jeunes artistes en diffusant leurs nouvelles chansons.

Un autre point très important est le fait que Radio Salus est la seule station du pays à employer des aveugles. Elle a ainsi créé un espace d’insertion où les personnes handicapées peuvent parler de leurs combats et de leurs problèmes quotidiens. Radio Salus donne la parole aux personnes handicapées qui, comme les aveugles, n’ont pas souvent l’occasion de se faire entendre et sont ignorées par le reste du public. En employant un
aveugle, Radio Salus envoie clairement un message contre la discrimination, en rappelant que tous les citoyens sans exception ont droit à la même considération.

Radio Salus est devenue un symbole de réussite d’une radio communautaire qui joue un rôle majeur au Rwanda sur différents plans. Cet exemple de réussite illustre la capacité d’une radio à transformer non seulement sa communauté, mais l’ensemble du pays.

 

 Source: Unesco

 


Cameroun : L'Art (Agence de Régulation des Télécommunications) se connecte aux consommateurs

Ce régulateur forme les consommateurs à la connaissance de leurs droits.

"Je suis venu à Douala à la recherche d'un nouveau départ, entre l'Agence de régulation des Télécommunications (Art), les consommateurs et leurs associations, fondé sur le respect mutuel, l'intérêt des réalités de notre marché et de notre environnement économique qui est loin d'être parfait". C'est par cette phrase que le directeur général de l'Art, Jean-Louis Beh Mengue a planté le décor du séminaire, de trois jours qui se déroule sous le thème "sensibilisation sur la protection du consommateur des produits et services des télécoms", ouvert hier à l'hôtel Sawa de Douala.

L'Art qui se trouve au milieu de trois forces centripètes à savoir: Le gouvernement, les opérateurs et exploitants des réseaux de télécommunication et le consommateur. Ce dernier comme l'a rappelé Jean-Louis Beh Mengue lors de son allocution "reste le maillon faible de la chaîne. Cette faiblesse résulte tantôt de son manque d'organisation, tantôt de son inaptitude à faire valoir sa pensée et ses idées." C'est d'ailleurs pourquoi la séance de formation et sensibilisation commencée hier a vu la participation du régulateur, des principaux opérateurs du secteur que sont Camtel, Mtn et Orange et d'une cinquantaine d'associations de défense et de la protection des droits des consommateurs.

Début de réflexion
La tâche cependant, ne semble pas facile. La principale difficulté des relais vers les consommateurs que sont les associations, c'est leur manque de spécialisation. Elles ratissent large et sont à la fin "inefficaces dans leurs actions. Il faut changer d'approche pour mieux solutionner les problèmes du consommateur", livre le délégué de l'association de la défense pour les droits des consommateurs (Apdc). En guise de début de réflexion aux travaux qui vont durer 3 jours, le Gouverneur de la région du Littoral, Faï Yengo Francis, a proposé aux responsables d'associations de "s'appuyer sur les réseaux de juristes et d'experts pour être des alliés de l'Art, des contradicteurs respectés et des avocats pertinents des consommateurs".

A côté du névralgique point de la spécialisation, les responsables d'associations ont apporté les plaintes des consommateurs qui tournent essentiellement autour du prix encore élevé du coût de la communication et la qualité du réseau et services. D'après Delor Magellan Kamgaing, de la Ligue camerounaise des consommateurs (Lcc), il serait souhaitable de trouver un mécanisme lors de ce séminaire pour "contraindre l'Art à la célérité lors du traitement des problèmes du consommateur et de la sanction effective des opérateurs qui auront bafoué les droits de leurs abonnés. Il y'en a qui font des travaux sur leurs réseaux sans prévenir et entraînent de sérieux désagréments aux consommateurs, d'autres changent leurs offres sans information."
Autant de points qui méritent de trouver des solutions lors de ces travaux, car le droit à l'information, à la réparation du tort sont des droits fondamentaux du citoyen et consommateur camerounais.

Marion Obam

Source: lequotidienmutations


Cameroun: Quels avantages pour le MyPcnet ?

Alain Tchakounte

L'offre « ordinateur et Internet » de MTN s'effectue avec la collaboration de quelques partenaires bancaires de la place.

Mtn Solutions Network filiale Internet de Mtn Cameroun s'est associé à de nombreux acteurs de l'informatique et de la banque pour mettre sur le marché camerounais l'offre « un ordinateur + le Net ». Microsoft, HP, Acer participent à cette opération, pour la partie « matériel et logiciel ». SGBC, BICEC et UBA sont de l'aventure du côté bancaire. MTN a travaillé avec Microsoft pendant un an pour essayer de trouver une solution qui serait techniquement et économiquement au point et appropriée au contexte camerounais », déclare-t-on à MTN. MyPcNet en est le résultat.

Il s’agit d’un pack composé d’un ordinateur et d’une connexion Internet haut débit illimité pendant un an. Pour y souscrire il faut être détenteur d’un compte courant dans l’une des banques partenaires et souscrire à un crédit entre 3 et 24 mois pour payer en traites le pack Mypcnet qui comprend un ordinateur portable ou de bureau plus la connexion Internet illimitée pendant 1 an. Le pack est livré, selon Serge Mbarga Owona, ingénieur produit chez MTN, 72h après l’accord du crédit. Le coût au finish s’évalue entre 570.000 Fcfa et 800.000 Fcfa. « Il faut saluer la créativité de l’offre de MTN qui permet aux particuliers de franchir la barrière des coûts et de faire face au manque d’infrastructures comme l’ordinateur », reconnaît un informaticien.

Cependant, si l’offre paraît alléchante en résorbant les problèmes dus aux infrastructures, il reste vrai qu’elle ne touche pas tout le monde. D’ailleurs, tous les consommateurs n’ont pas de comptes logés dans ces banques. « Ça a l’air restrictif pour l’instant, on en est conscient, car l’offre s’adresse à ceux ayant des comptes dans ces banques, mais le Mypcnet est appelé à s’étendre. On ne voulait pas une liste de pièces à rallonge. Les banques choisies sont celles qui ont accepté, après d’âpres négociations, d’alléger leurs formalités de crédit », explique Serge Mbarga Owona. Sur le montant, on affirme mordicus à MTN qu’il s’agit d’un avantage, de payer sur plusieurs mois et d’avoir un équipement de qualité, au lieu de sortir le cash : « L’ordinateur que nous donnons dans le pack est de 450.000 Fcfa avec des licences originales très rares et des garanties », ajoute l’ingénieur.

Même s’il s’échelonne sur plusieurs mois au finish, plusieurs consommateurs reconnaissent qu’ « il est possible d’avoir un ordinateur portable à près de 400.000 Fcfa et une connexion Internet rechargeable, sans avoir à débourser d’énormes sommes d’argent ou s’endetter pour avoir Internet et un ordinateur ». Au détriment de la qualité ? Selon des chiffres officiels, le taux de pénétration de l’Internet au Cameroun est encore très faible. Il est d'envion 1%.

Source: Cameroontribune


Cameroun: Technologies de l'information - L'Antic veut arrêter la cacophonie dans les administrations

Sainclair Mezing

Elle vient de définir un schéma directeur visant à harmoniser l'implémentation de tout ce qui touche à l'informatique dans le secteur public.

Peut-être pour bientôt la fin de la navigation à vue au sein des différentes administrations publiques et parapubliques camerounaises en matière d'implémentation des technologies de l'information et de la communication (Tic). L'Agence nationale des technologies de l'information et de la communication (Antic) et ces dernières ont adopté hier un schéma directeur visant à mettre un terme à la navigation à vue ambiante qui a cours au sein de l'administration publique camerounaise dans l'acquisition et l'utilisation des Tic. Depuis l'avènement de celles-ci, chaque administration n'en fait qu'à sa guise. Dans certains bureaux, on retrouve par exemple des profanes en lieu et place des experts formés en la matière.

Tout comme il existe des services disposant chacun de son service Internet.

Ce qui, à la différence d'un abonnement général, grève les budgets. Jusqu'à ce jour, certaines administrations tardent toujours à intégrer en leur sein le Système intégré de gestion informatisé du personnel de l'Etat et de la solde (Sigipes). Pis encore, l'acquisition de l'outil informatique dans certaines administrations est devenue un véritable fonds de commerce pour certains responsables qui détournent des moyens colossaux à d'autres fins. A l'Antic, l'on décrie aussi cette disproportion qui a parfois cours entre l'outil informatique alloué à certains personnels et les missions à eux dévolues. A titre d'exemple, il existe des secrétaires qui disposent d'un Pentium 4 alors que leurs tâches qui ne se limitent généralement qu'aux simples saisies ne conviennent pas à ce type de matériel. Autant de pratiques qui font qu'aujourd'hui le traitement des dossiers et la gestion des ressources au sein des différentes administrations connaissent autant de lenteurs et de lourdeur. Avec au final les nombreux désagréments qu'on sait dans le service. En initiant cette harmonisation, l'Antic entend apporter plus de fiabilité, de célérité et de confidentialité dans la gestion du service public.

Cependant, dans les administrations, beaucoup restent sceptiques quant à la réussite d'une telle opération. Connaissant bien une certaine mentalité camerounaise qui veut que "la chèvre broute là où elle est attachée", les représentants de certaines administrations présents à cet atelier qualifient un tel projet d'utopique. Beaucoup pensent plutôt que "lorsqu'il y a des crédits dans les ministères pour l'achat du matériel informatique, l'on pense d'abord aux commissions, frais de mission et autres per diem." Raison pour laquelle ils recommandent, avant toute chose, à l'Antic de "soumettre les responsables des différentes administrations au renforcement des capacités. Eux qui tirent profit de cette navigation à vue."

A l'Antic, l'on se veut rassurant quant à la réussite d'une telle initiative. D'après Paulette Abenkou, directeur général adjoint de cette structure, "beaucoup d'administrations seront frappées si elles ne respectent pas le cahier de charge lié aux Tic. Désormais les budgets relatifs aux Tic devront au préalable faire l'objet d'une appréciation de l'Antic avant leur adoption. Car, de nombreux milliards ont été engloutis dans projets n'ayant aucun lien avec les Tic."

Source: lequotidienmutations


 

Intégration pédagogique des TIC en Afrique: Stratégies d’action et pistes de réflexion

Cet ouvrage sur les stratégies d’action et pistes de réflexion de l’intégration pédagogique des TIC est un livre collectif et bilingue. Il est divisé en 10 chapitres.

Le second est signé par le professeur Pierre Fonkoua de l’Université de Yaoundé I et s’intitule «Les TIC pour les enseignants d’aujourd’hui et de demain».

Le troisième chapitre a été écrit en anglais par la professeure Thérèse Tchombé, maintenant à la retraite. Il porte sur les perceptions de l’apprentissage et son impact sur les pratiques d’intégration des TIC.

Le quatrième chapitre porte sur les TIC et les typologies des outils et systèmes. Il a été rédigé conjointement par trois chercheurs du projet: Mohamed Touré du Ministère de l’Éducation au Mali, Moses Mbangwana du ROCARE Cameroun et Pape Sene du ROCARE Sénégal.

Le cinquième chapitre porte sur l’intégration pédagogique des TIC, sur ce qui se passe réellement au niveau de l’usage des TIC par les élèves et les enseignants des classes observées. Il a été signé par Thierry Karsenti et son collaborateur, Salomon Tchameni Ngamo.

Le sixième chapitre porte sur les prérequis à une intégration pédagogique des TIC et est à nouveau signé par Salomon Tchameni Ngamo de l’Université de Montréal.

Le septième chapitre a été écrit par Kathryn Touré, à l’époque coordonnatrice régionale du ROCARE, et actuellement directrice régionale du CRDI en Afrique de l’Ouest. Il porte sur le processus d’appropriation des TIC.

Le huitième chapitre, signé par Djénéba Traoré, directrice actuelle du ROCARE, aborde les défis inhérents à l’intégration et à l’usage des TIC en éducation en Afrique.

Le neuvième chapitre présente une panoplie de stratégies prometteuses pour favoriser l’usage et l’intégration pédagogique des TIC. Il est signé par quatre chercheurs du projet: Pape Sene du Sénégal, de même que Lamine Diarra, Mohamed Maïga et Djénéba Traoré, tous du Mali.

Une conclusion générale vient clore cet ouvrage.


Intégration pédagogique des TIC en Afrique: Stratégies d’action et pistes de réflexion

Cet ouvrage sur les stratégies d’action et pistes de réflexion de l’intégration pédagogique des TIC est un livre collectif et bilingue. Il est divisé en 10 chapitres.

Le second est signé par le professeur Pierre Fonkoua de l’Université de Yaoundé I et s’intitule «Les TIC pour les enseignants d’aujourd’hui et de demain».

Le troisième chapitre a été écrit en anglais par la professeure Thérèse Tchombé, maintenant à la retraite. Il porte sur les perceptions de l’apprentissage et son impact sur les pratiques d’intégration des TIC.

Le quatrième chapitre porte sur les TIC et les typologies des outils et systèmes. Il a été rédigé conjointement par trois chercheurs du projet: Mohamed Touré du Ministère de l’Éducation au Mali, Moses Mbangwana du ROCARE Cameroun et Pape Sene du ROCARE Sénégal.

Le cinquième chapitre porte sur l’intégration pédagogique des TIC, sur ce qui se passe réellement au niveau de l’usage des TIC par les élèves et les enseignants des classes observées. Il a été signé par Thierry Karsenti et son collaborateur, Salomon Tchameni Ngamo.

Le sixième chapitre porte sur les prérequis à une intégration pédagogique des TIC et est à nouveau signé par Salomon Tchameni Ngamo de l’Université de Montréal.

Le septième chapitre a été écrit par Kathryn Touré, à l’époque coordonnatrice régionale du ROCARE, et actuellement directrice régionale du CRDI en Afrique de l’Ouest. Il porte sur le processus d’appropriation des TIC.

Le huitième chapitre, signé par Djénéba Traoré, directrice actuelle du ROCARE, aborde les défis inhérents à l’intégration et à l’usage des TIC en éducation en Afrique.

Le neuvième chapitre présente une panoplie de stratégies prometteuses pour favoriser l’usage et l’intégration pédagogique des TIC. Il est signé par quatre chercheurs du projet: Pape Sene du Sénégal, de même que Lamine Diarra, Mohamed Maïga et Djénéba Traoré, tous du Mali.

Une conclusion générale vient clore cet ouvrage.

<!-- @page { margin: 2cm } P { margin-bottom: 0.21cm } H1 { margin-bottom: 0.21cm } H1.western { font-family: "Times New Roman", serif } H1.cjk { font-family: "Arial Unicode MS" } H1.ctl { font-family: "Tahoma" } A:link { so-language: zxx } -->
 

Cameroun: 39 milliards Fcfa pour construire la fibre optique

Selon l’accord de prêt signé et le planning d’exécution des travaux, le Cameroun devrait avoir sa fibre ptique en fin 2010.

Environ 26 milliards Fcfa. C’est le montant de l’accord de financement/prêt que Eximbank-Chine a accordé à la République camerounaise pour la réalisation du projet Backbone de transmission d’informations par fibre optique. Cet accord a été signé hier, lundi 6 juillet 2009, à Yaoundé par Louis Paul Motaze, ministre camerounais de l’Economie, de la planification et de l’aménagement du territoire (Minepat), et l’ambassadeur de la République populaire de Chine au Cameroun, S.E.M. Huang Changqing. La cérémonie se déroulait en présence, entres autres, du nouveau ministre des Postes et télécommunications, Jean Pierre Biyiti bi Essam, du directeur général adjoint de l’entreprise Huawei technologies company Ltd, Shi Weiliang, et du directeur général adjoint de Cameroon télécommunications (Camtel), Richard Maga.
Le montant total du projet, toutes taxes comprises, est de 38,234 milliards Fcfa. Dans les détails, le projet va coûter en terme de fournitures, quelque 11,290 milliards Fcfa tandis que l’on a prévu pour les prestations 26,944 milliards Fcfa. Le financement sera fait par le Cameroun et la Chine. La partie chinoise s’engage en effet à accorder un prêt de 52 millions de dollars Us au Cameroun. Ce qui fait environ 26 milliards Fcfa. Cette somme correspond aux 85% du montant hors taxes-hors douane (HT-HD) du projet. Camtel devra pour sa part supporter les droits de douane et taxes ainsi que les 15% du montant HT-HD. Soit une enveloppe d’un peu plus de 12 milliards Fcfa.

18 mois de travaux
Les travaux en eux-mêmes se feront sous le contrôle de Huawei technologies company Ltd. Dès septembre 2009, il est question de fabriquer des équipements en Chine. Ils seront expédiés au Cameroun un mois plus tard, afin d’être dédouanés dès décembre 2009. Les travaux de génie civil auront déjà démarré en octobre. Et la pose même des câbles à fibre optique et l’installation des équipements de transmission sont prévues à partir de février 2010. Temps total des travaux : 18 mois. De manière globale, le projet Backbone national va consister à construire un réseau de câble optique sur une longueur de 3 200 kilomètres à travers l’ensemble du pays. Avec pour principal objectif de doter le pays d’infrastructures pour le développement des technologies de l’information et de la communication (Tic), et de manière spécifique dans les zones rurales et semi urbaines.
Dans son discours de circonstance, le Minepat, a émis le souhait de la partie camerounaise de voir ce projet prendre rapidement corps. “ Consacrant définitivement la mise en place des fonds nécessaires à la réalisation du projet, nous espérons voir les travaux démarrer dans les meilleurs délais ”, a souhaité Louis Paul Motaze. Il a par ailleurs rassuré l’entreprise Huawei de l’assistance de l’administration camerounaise pour une bonne exécution des travaux. La partie chinoise, par le biais de l’ambassadeur Changqing Huang, a réitéré l’envie de son pays à soutenir le Cameroun à combler le “ grand déficit au niveau du développement des [Tic] ”. Surtout que cela cause un obstacle réel pour l’envol de l’économie camerounaise.

Par Alain NOAH AWANA

Source: le messager


Stratégie pour l’enseignement supérieur, la science et la technologie

La stratégie proposée vise à revitaliser et promouvoir les établissements et des systèmes d’enseignement supérieur en Afrique qui libèrent l’esprit et le potentiel latent des Africains et en mesure d’aider à surmonter la multitude de défis à relever par le continent et ses habitants. Il s’agira donc d’adresser la question cruciale du re-positionnement de certains Instituts nationaux d'enseignement et de formation professionnelle ainsi que les centres régionaux d’excellence pour rejoindre les rangs des meilleurs du monde.

 Pour plus d’information voir: Stratégie pour l’enseignement supérieur, la science et la technologie


 

Évaluation de l’impact des TIC au service des projets de développement: Un compendium des approches

Richard Heeks & Molla Alemayehu

Résumé

Des milliards de dollars sont investis chaque année par le secteur public, les ONG et le secteur privé dans les projets de technologies de l’information et de la communication pour le développement (ICT4D) tels que les télécentres, les projets de téléphonie rurale , les projets de e-santé, de e-éducation, et de e gouvernement, etc
Pourtant, nous avons très peu de ressenti l’effet de ces investissements. Bref, il ya trop peu d’évaluation de l’impact des projets ICT4D.
En partie, cela reflète un manque de volonté politique et de la motivation. Mais, en partie, elle reflète aussi un manque de connaissances sur la façon d’entreprendre l’évaluation de l’impact de ICT4D.
Ce recueil a pour but de remédier à ce manque de connaissances. Il présente une série de cadres qui peuvent être utilisés par les praticiens du domaine du ICT4D, des décideurs et des consultants pour comprendre l’impact des initiatives des technologies de l’information et de la communication dans les pays en développement.
Le Compendium est organisé en trois parties:

  • Vue d’ensemble - explique la base de la compréhension de l’évaluation de l’impact des projets ICT4D, et les différents cadres d’évaluation qui peuvent être utilisés.

  • Cadres - résume une série d’évaluation de l’impact des cadres, chacun puisant dans une perspective différente.

  • Bibliographie - un tableau résumé des exemples réels de l’évaluation de l’impact ICT4D.

Guide de l’éducateur aux questions soulevées par les étudiants.

Visualiser / Télécharger les options

 

L’apprentissage par l’audio rend possible la gestion des leçons pour les personnes malvoyantes

Comment des personnes ayant une déficience visuelle peuvent améliorer leur personnalité, apprendre la puissance de la pensée positive et aussi prendre des cours de gestion? Des centaines de livres sur ces sujets, l’empilement des étagères des grands magasins de livres ne peuvent ne pas être d’une grande aide pour eux. Mais une société spécialisée en TIC basée à Ahmedabad, du nom de «Third Generation Resources Ltd» a décidé d’épauler des personnes ayant une déficience visuelle à travers le monde, par l’utilisation de la voix sur Internet pour l’apprentissage.

Le spécialiste en gestion et conférencier motivateur Dr Shailesh Thaker, le promoteur de «Third Generation Resources Ltd» , sur son site Internet drshaileshthaker.co.in, tient une colonne hebdomadaire «Sagesse du Lundi» qui offre des histoires et des enseignements basés sur l’inspiration pour une vie meilleure. Les leçons ont été converties en format audio, en particulier pour les malvoyants.

«Third Generation Resources Ltd» fait travailler une équipe entière sur cette initiative. Pendant que Thaker écrit des articles, une personne leur prête sa voix et puis ces leçons sont enregistrées et téléchargées sur le site. Thaker a indiqué que son entreprise a pour objectif de toucher au moins un million de personnes malvoyantes dans environ 25 pays. À l’heure actuelle, les leçons et les histoires sont uniquement disponibles en anglais. Mais, selon Thaker, dans un proche avenir, elles seront disponibles dans de nombreuses langues étrangères afin que nous puissions couvrir un maximum de gens.

Source: Times of India


 

La conférence internationale sur l’Université appelle à une meilleure intégration des TIC

La Conférence mondiale sur l’enseignement supérieur s’est clôturée le 8 juillet sur un appel demandant aux gouvernements d’augmenter l’investissement dans l’enseignement supérieur, d’encourager la diversité et de renforcer la coopération régionale pour répondre aux besoins sociétaux.

«Il n’a jamais été aussi important qu’aujourd’hui d’investir dans l’enseignement supérieur, moteur essentiel de l’élaboration d’une société du savoir inclusive et diverse et de la progression de la recherche, l’innovation et la créativité», affirme le communiqué final adopté à l’issue de la Conférence mondiale sur l’enseignement supérieur, qui a réuni plus de 1.000 participants de près de 150 pays au siège de l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) du 5 au 8 juillet.

Pendant quatre jours, ministres, présidents et enseignants d’université, étudiants et hauts représentants du secteur privé, institutions régionales et multilatérales ont débattu sur des thèmes aussi variés que l’impact de la mondialisation, la responsabilité sociale de l’enseignement supérieur, la liberté académique, la recherche et le financement. «Nous avons défini des directions futures pour l’enseignement supérieur, qui forme actuellement un paysage complexe et en rapide évolution, car nous partageons fondamentalement la même vision des responsabilités éthiques et stratégiques qui lui incombent dans la société mondiale actuelle», a déclaré le directeur général de l’UNESCO, Koïchiro Matsuura, affirmant que l’Organisation «continuerait à s’exprimer avec force en faveur de l’enseignement supérieur.»

Le communiqué souligne que «l’enseignement supérieur doit poursuivre à la fois les objectifs d’équité, de pertinence et de qualité» et met l’accent sur l’importance des mécanismes de contrôle et d’assurance qualité ainsi que sur la nécessité de «valoriser les métiers de l’enseignement supérieur». Il précise que les technologies de l’information et de la communication doivent être davantage intégrées à tous les niveaux de l’enseignement supérieur pour répondre à la demande croissante des étudiants et permettre le partage des résultats de la recherche scientifique.

Le document final lance plusieurs appels qui reflètent l’accent mis sur la revitalisation de l’enseignement supérieur en Afrique lors de la conférence: adoption d’approches différenciées pour répondre à la progression rapide de la demande, renforcement de l’attention accordée aux domaines d’expertise tels que l’agriculture, l’environnement et l’extraction des ressources naturelles, et mobilisation du financement privé.

Le communiqué insiste sur la nécessité de renforcer la coopération régionale en termes de reconnaissance des qualifications, assurance qualité, gouvernance, recherche et innovation. Il fait également valoir combien il est important d’établir des sphères d’enseignement supérieur et de recherche régionales.

Source: TOULOUSE7.com


 

Le Sénégal lance son réseau intranet administratif 

APA-Dakar (Sénégal) Le Sénégal a lancé officiellement ce vendredi, son centre de ressources intranet qui va lui permettre de se servir désormais de son e-gouvernement en vue de renforcer l’usage des Technologies de l’information et la communication p le développement du pays.

«La mise en place de e-gouvernement est un bel exemple gagnant-gagnant pour le Sénégal et pour toute l’Afrique», a déclaré le ministre sénégalais des Technologies de l’information et de la communication, Abdourahim Agne.

Selon la Chargée d’affaires de l’ambassade de la République populaire de Chine au Sénégal, qui co-présidait la cérémonie, MmeGuo Wei, «un pays qui ne possède pas un système informatique efficace n’est pas en mesure de se développer vite».

«Ce bel outil nous permettra sans aucun doute d’atteindre nos objectifs de e-gouvernement par la fourniture de services prioritaires que le gouvernement a identifiés comme l’éducation, la santé et l’administration», a indiqué Abdourahim Agne.

«Pour le projet de l’éducation, la première phase permettra l’interconnexion de cinq universités à très haut débit, leur offrant ainsi la possibilité de mutualiser leurs ressources pédagogiques notamment grâce à la visioconférence et aux autres techniques d’enseignement à distance», a précisé M.Agne.

Il a révélé que pour le secteur de la santé, «des tests concluants de télédiagnostics de télémédecine ont été effectués entre le CHU de Fann de Dakar et l’hôpital régional de Saint-Louis (nord) en attendant la généralisation de tous les dispositifs à tous les hôpitaux régionaux».

Selon lui, ce réseau permettra de partager les applications informatiques avec les différents services de tous les ministères jusqu’au niveau des capitales régionales, de généraliser le courrier électronique à tous les agents de l’Etat, de façon à accélérer les échanges en vue d’accroître l’efficacité du travail administratif et de réduire à terme les charges induites par les communications entre agents de l’administration publique.

Le ministre sénégalais a cependant insisté sur l’importance de la maintenance et de la continuité des services à travers le transfert des technologies par les Chinois et la formation d’un grand nombre de techniciens sénégalais.

Le directeur de l’Agence de l’Informatique de l’Etat (ADIE), Tidiane Seck, a dit de son côté, qu’il s’agira surtout pour l’Etat, à travers l’administration, «de gagner en temps, en papiers pour le bien des usagers que sont les citoyens, bref faire beaucoup avec peu de moyens grâce à l’outil informatique».

D’un coût global de 50 millions de dollars soit environ 25 milliards de FCFA, ce réseau -lancé en décembre 2007 et bouclé en mars 2009- est le fruit de la coopération entre la République Populaire de Chine et le Sénégal, et connectera de 12 000 appareils téléphoniques à travers le pays.

AFT/dmg/APA


 LIFT France with FING, Marseille 18 - 20 Juin 2009

Conference internationale sur l’innovation, la créativité, la technologie et la société

Lift est une série de conférences qui explore les implications économiques et sociales des nouvelles technologies en Europe et dans le monde. Chaque conférence offre la possibilité de comprendre les effets de l’innovation sur la société, et de transformer le changement en opportunité.

Lift France, with Fing est organisé sous "le parrainage et en présence de Nathalie Kosciusko-Morizet, secrétaire d’Etat chargée de la Prospective et du Développement de l’économie numérique



eLearning Africa – Dakar 2009

4ème Conférence Consacrée aux Technologies de L'Information et de la communication appliquée à l'Enseignement (TICE), la Formation et au Développement

Dates: du 27 au 29 Mai 2009

Lieu: Dakar, Sénégal

Organisateur: ICWE GmbH, www.icwe.net, Hoffmann & Reif, www.hoffmann-reif.com

Contact: Rebecca Stromeyer, Cette adresse email est protégée contre les robots des spammeurs, vous devez activer Javascript pour la voir. ,

Contact pour la France + les pays francophones: Eva Bloudanis et Anne Mimault

Courte présentation de la conférence:

eLearning Africa 2009 est la conférence organisée par l'ICWE GmbH et Hoffman & Reif qui se focalise sur les Technologies de l'Information et de la Communication (TICE) appliquées à l'Enseignement, la Formation et au Développement. L'évènement fondera et liera un réseau entre les décideurs des gouvernements, les administrations, les universités, les écoles, l'industrie, les prestataires de formations auprès d'organismes publics et privés et les partenaires importants dans la coopération de développement. Chaque année, un pays africain différent servira comme point de rencontre. En 2007, la conférence se focalise sur La construction d'infrastructure et de compétences pour venir en aide à l'ensemble de l'Afrique, en reflétant les efforts significatifs des pays africains pour mettre en place leurs infrastructures TICE nationales et régionales en créant l'accès à l'enseignement, la formation et les services pour tous. L'évènement sera accompagné d'une exposition.

www.elearning-africa.com



UNESCO: Lancement de la bibliothèque numérique mondiale (BNM)

L’UNESCO et ses 32 institutions partenaires ont lancé le 14 Avril dernier La Bibliothèque Numérique Mondiale, un site internet qui propose un éventail unique de matériels culturels provenant de bibliothèques et d’archives d’un peu partout dans le monde.


Mis à jour ( Mardi, 11 Octobre 2011 08:49 )
Lire la suite...