Nanotechnologies

Discussion dans 'Bibliothèque Wladbladi' créé par titegazelle, 13 Janvier 2013.

  1. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113

    Nanotechnologies

    Les nanosciences et nanotechnologies (d'après le grec νάνος nain) peuvent être définies a minima comme l'ensemble des études et des procédés de fabrication et de manipulation de structures (électroniques, chimiques, etc...), de dispositifs et de systèmes matériels à l'échelle du nanomètre (nm). Dans ce contexte, les nanosciences sont l’étude des phénomènes et de la manipulation de la matière aux échelles atomique, moléculaire et macromoléculaire, où les propriétés diffèrent sensiblement de celles qui prévalent à une plus grande échelle. Les nanotechnologies, quant à elles, concernent la conception, la caractérisation, la production et l’application de structures, dispositifs et systèmes par le contrôle de la forme et de la taille à une échelle nanométrique. Malgré la relative simplicité et la précision de ces définitions, les NST présentent plusieurs acceptions liées à la nature transversale de cette jeune discipline. En effet, elles utilisent, tout en permettant de nouvelles possibilités, des disciplines telles que l'optique, la biologie, la mécanique, la chimie, ou encore la microtechnologie. Ainsi, comme le reconnaît le portail français officiel des NST, «les scientifiques ne sont pas unanimes quant à la définition de nanoscience et de nanotechnologie». Les nanomatériaux ont été reconnus comme toxiques pour les tissus humains et les cellules en culture. La nanotoxicologie étudie les risques environnementaux et sanitaires liés aux nanotechnologies. La dissémination à large échelle de nanoparticules dans l'environnement est sujette à des questions éthiques.

    Les nanotechnologies bénéficient de plusieurs milliards de dollars en recherche et développement. L'Europe a accordé 1,3 milliard d’euros pendant la période 2002-2006. Certains organismes prétendent que le marché mondial annuel sera de l’ordre de 1 000 milliards de dollars américains dès 2015. (estimation de la National Science Foundation en 2001), jusqu'à 3 000 milliards de dollars (estimation Lux Research Inc de 2008)


    Historique

    - Vision de Feynman
    Dans son discours donné le 29 décembre 1959 à la Société américaine de physique, Richard Feynman évoque un domaine de recherche possible alors inexploré : l'infiniment petit. Feynman envisage un aspect de la physique «dans lequel peu de choses ont été faites, et dans lequel beaucoup reste à faire».

    Se fondant sur la taille minuscule des atomes, il considère comme possible d'écrire de grandes quantités d'informations sur de très petites surfaces : « Pourquoi ne pourrions-nous pas écrire l'intégralité de l'Encyclopædia Britannica sur une tête d'épingle ? ». Une affirmation qui n'avait pas été spécifiquement relevée, et qui est aujourd'hui abondamment citée (de fait, ce qui à l'époque était infaisable, semble aujourd'hui parfaitement réalisable, grâce aux progrès en microtechnologies). Feynman veut aller au-delà des machines macroscopiques avec lesquelles nous vivons : il imagine un monde où les atomes seraient manipulés un par un et agencés en structures cohérentes de très petite taille.

    - Microscope à effet tunnel
    Comme souvent en science, le développement des nanosciences et nanotechnologies s'appuie sur l’invention de deux instruments permettant d’observer et d’interagir avec la matière à une échelle atomique ou subatomique. Le premier est le microscope à effet tunnel qui a été inventé en 1981 par deux chercheurs d'IBM (Gerd Binnig et Heinrich Rohrer), et qui permet de parcourir des surfaces conductrices ou semi-conductrices en utilisant un phénomène quantique, l'effet tunnel, pour déterminer la morphologie et la densité d'états électroniques des surfaces qu’il explore. Le second est le microscope à force atomique qui est un dérivé du microscope à effet tunnel, et qui mesure les forces d'interactions entre la pointe du microscope et la surface explorée. Cet outil permet donc, contrairement au microscope à effet tunnel, de visualiser les matériaux non-conducteurs. Ces instruments combinés avec la photolithographie permettent d'observer, de manipuler et de créer des nanostructures.
    - Fullerènes et nanotubes
    En 1985, trois chercheurs, Richard Smalley, Robert F. Curl (de l'Université Rice de Houston) et Harold W. Kroto (Université de Sussex) découvraient une nouvelle forme allotropique du carbone, la molécule C[SUB]60[/SUB] constituée de 60 atomes de carbone répartis sur les sommets d’un polyèdre régulier formé de facettes hexagonales et pentagonales. Chaque atome de carbone a une liaison avec trois autres. Cette forme est connue sous le nom de buckminsterfullerène ou buckyball et doit son nom à l’architecte et inventeur américain Richard Buckminster Fuller qui a créé plusieurs dômes géodésiques dont la forme est analogue au C[SUB]60[/SUB].

    Plus généralement, les fullerènes dont fait partie le C[SUB]60[/SUB], sont une nouvelle famille de composés du carbone. Non équilatéraux, leur surface se compose d’une combinaison d’hexagones et de pentagones à l’instar des facettes d’un ballon de football. Cette disposition leur confère des structures toujours fermées en forme de cage de carbone. Il fallut néanmoins attendre 1990, pour que Huffman et Kramer de l’université de Heidelberg, mettent au point un procédé de synthèse permettant l’obtention de ces molécules en quantités macroscopiques. Les nanotubes ont été identifiés six années plus tard dans un sous-produit de synthèse des fullerènes.

    - Prophéties de Drexler
    En 1986, Eric Drexler publie un ouvrage sur l'avenir des nanotechnologies, Engines of Creation, dans lequel il délivre sa vision des progrès faramineux possibles avec l'essor des nanotechnologies. Ainsi les lois physiques paraissant insurmontables aujourd'hui pourraient être dépassées, les produits créés pourraient être moins coûteux, plus solides, plus efficaces grâce à la manipulation moléculaire. Mais Drexler a également prévu ce qu'on pourrait appeler le revers de la médaille, en effet de telles technologies capables de se reproduire ou du moins de se répliquer par elles-mêmes pourraient être tout simplement cataclysmique puisque, par exemple, des bactéries créées dans un quelconque intérêt commun pourraient se répliquer à l'infini et causer des ravages sur la flore mais aussi sur la faune et même sur l'humanité.

    Drexler écrit que si l'essor des nanotechnologies, apparemment inéluctable dans le processus d'évolution, devait nous apporter énormément dans des domaines très vastes, il est également fort probable que ces technologies deviennent destructrices si nous ne les maîtrisons pas entièrement.

    À ce sujet, une des questions qui peuvent être posées est la forte capacité pénétrante qu’ont les nanoparticules à l’égard des tissus cellulaires. Effectivement, du fait de leur taille inférieure aux cellules, dès lors que ces dernières sont à l’état de particules, elles peuvent outrepasser certaines barrières naturelles. Cette propriété est d'ailleurs déjà exploitée dans l’industrie cosmétique.

    - Physique des nanosciences
    À l'échelle nanométrique, la matière présente des propriétés particulières qui peuvent justifier une approche spécifique. Il s'agit bien sûr des propriétés quantiques, mais aussi d'effets de surface, de volume, ou encore d'effets de bord. En effet, conformément aux lois de la mécanique quantique, une particule adoptera au niveau nanométrique un comportement ondulatoire aux dépens du comportement corpusculaire que nous lui connaissons au niveau macroscopique. Cette dualité onde-particule est particulièrement visible dans l'expérience des fentes de Young. Un faisceau de particules (lumière, électrons, etc.) interfère avec une série de fentes peu espacées et crée une figure d'interférences, caractéristique d'un phénomène ondulatoire. Cette dualité onde-particule de la matière, qui reste à ce jour une des grandes interrogations de la physique, va provoquer divers phénomènes au niveau nanométrique, par exemple :
    – quantification de l'électricité : dans un fil nanométrique, on a remarqué que le courant électrique n'est plus constitué d'un flux continu d'électrons mais qu'il est quantifié, c'est-à-dire que les électrons circulent par « paquets » dans le circuit ;
    – quantification de la chaleur : de même dans un circuit de taille nanométrique, on a observé que la chaleur se propage de manière quantifiée.

    Ces phénomènes, observés expérimentalement, confirment les théories de la mécanique quantique.


    Ce comportement de la matière nous oblige à revoir notre façon de penser : lorsque l'on veut décrire une particule, on ne parle plus en termes de position en un temps donné, mais plutôt en termes de probabilité que la particule se trouve à un endroit plutôt qu'à un autre.

    L'enjeu majeur des nanosciences est donc de comprendre ces phénomènes mais aussi et surtout d'en tirer profit lors de la conception d'un système nanométrique.

    - Émergence des nanotechnologies
    Derrière l’effet d’annonce, plusieurs études ont été menées pour appréhender l’évolution des nanotechnologies et des nanosciences. Ainsi, en considérant le fait que les définitions ne sont pas stabilisées, la composante commune des différentes méthodes utilisées est de mesurer l’activité nanotechnologique sous trois angles : publications scientifiques (plutôt pour les connaissances fondamentales), brevets (plutôt pour les aspects technologiques), et éventuellement institutions et entreprises concernées ou encore les capitaux investis (pour mesurer l’activité économique et industrielle réelles). Qu’il s’agisse des brevets ou des publications scientifiques, les valeurs présentées dans les tableaux suivant étaient négligeables avant les années 1990.
    - Évolution technologique de 1995 à 2003 dans le monde
    Au regard de l’article paru dans la revue Nature Nanotechnology en 2006, on note l’évolution suivante pour les brevets déposés à l’Office européen des brevets (EPO):

    [TABLE="class: MsoNormalTable"]
    [TR]
    [TD]

    Année

    [/TD]

    [TD]
    1995

    [/TD]

    [TD]
    2000

    [/TD]

    [TD]
    2003

    [/TD]

    [/TR]
    [TR]
    [TD] Nombre de brevets pour l'année[/TD]
    [TD] 950[/TD]
    [TD] 1 600[/TD]
    [TD] 2 600[/TD]
    [/TR]
    [TR]
    [TD][/TD]
    [TD][/TD]
    [TD][/TD]
    [TD][/TD]
    [/TR]
    [/TABLE]

    Si ces chiffres représentent une forte évolution, on note également une relative stabilité pour ces deux périodes. Néanmoins cette évolution ne prend pas en compte les croissances plus rapides (1997-1999) et les diminutions (2000-2001).

    - Évolution des connaissances fondamentales entre 1989 et 2000 dans le monde
    Nous prendrons pour caractériser l’évolution des publications scientifiques, un article utilisant une méthode plus englobante que celle utilisée dans Nature Nanotechnology et qui permet de caractériser l'évolution des publications nanotechnologiques :

    [TABLE="class: MsoNormalTable"]
    [TR]
    [TD]

    Périodes

    [/TD]

    [TD]
    1989-1990

    [/TD]

    [TD]
    1991-1992

    [/TD]

    [TD]
    1993-1994

    [/TD]

    [TD]
    1995-1996

    [/TD]

    [TD]
    1997-1998

    [/TD]

    [TD]
    1999-2000

    [/TD]

    [/TR]
    [TR]
    [TD] Publications cumulées[/TD]
    [TD]

    1 000

    [/TD]

    [TD]
    10 000

    [/TD]

    [TD]
    20 000

    [/TD]

    [TD]
    35 000

    [/TD]

    [TD]
    55 000

    [/TD]

    [TD]
    80 000

    [/TD]

    [/TR]
    [TR]
    [TD] Nouvelles publications[/TD]
    [TD]

    1 000

    [/TD]

    [TD]
    9 000

    [/TD]

    [TD]
    10 000

    [/TD]

    [TD]
    15 000

    [/TD]

    [TD]
    20 000

    [/TD]

    [TD]
    25 000

    [/TD]

    [/TR]
    [/TABLE]

    - Périodes de créations des entreprises concernées par les NST
    En suivant un rapport émis par la commission européenne à propos de l’estimation du développement économique des NST, nous pouvons regarder les dates de créations d’entreprises concernées par cette activité.

    [TABLE="class: MsoNormalTable"]
    [TR]
    [TD]

    Périodes de création

    [/TD]

    [TD]
    Avant 1900

    [/TD]

    [TD]
    1900-1950

    [/TD]

    [TD]
    1951-1980

    [/TD]

    [TD]
    1981-1990

    [/TD]

    [TD]
    1991-2000

    [/TD]

    [/TR]
    [TR]
    [TD] Nombre d’entreprises concernées[/TD]
    [TD]

    20

    [/TD]

    [TD]
    60

    [/TD]

    [TD]
    45

    [/TD]

    [TD]
    75

    [/TD]

    [TD]
    230

    [/TD]

    [/TR]
    [/TABLE]

    Ces chiffres sont établis sur un répertoire d’entreprises particulier qui semble sous-évaluer les effectifs réels. Ils montrent bien une nette accélération des entreprises concernées par les nanotechnologies depuis les années 1990, mais d’autres sources, plus complètes, font des estimations bien au-dessus de ces chiffres. Le site NanoVIP estimait qu'en 2005 plus de 1 400 entreprises étaient identifiées comme étant concernées par les nanotechnologies. Plus récemment, des recherches font état d’un nombre d’entreprises supérieur à 6 000 en 2006. Ces recherches s’appuient sur une méthode visant à combiner les sources d’informations en ajoutant plusieurs marqueurs de l’activité nanotechnologique, comme par exemple les brevets. En 2006, à partir de ces résultats, les États-Unis accueillent 48 % des entreprises qui investissent dans les nanotechnologies, alors que l'Europe (des 27 et des pays associés) totalise 30 % et l’Asie 20 %.


    Disciplines fondamentales


    Le développement actuel des nanosciences et nanotechnologies mobilise et recouvre un large spectre de domaines et de disciplines scientifiques.


    - Principaux champs scientifiques concernés
    Du point de vue de la connaissance scientifique mobilisée, plusieurs sous-disciplines sont particulièrement utiles aux développements des connaissances fondamentales des NST. En effet, des analyses détaillées de la manière dont sont publiés et construits les articles scientifiques concernant les nanotechnologies et les nanosciences, montrent l’émergence de trois sous-champs spécifiques :
    – biosciences et pharma : autour de la biologie, des laboratoires pharmaceutiques et des biotechnologies. Ce champ peut être qualifié comme celui de la nanobiologie ;
    – nanomatériaux et synthèse chimique : autour de la chimie et des nanomatériaux. Ce champ peut être qualifié comme celui des nanomatériaux ;
    – superconductivité et ordinateur quantique : essentiellement issue de la microélectronique, ce champ peut être qualifié comme celui de la nanoélectronique.

    L’ensemble de ces trois champs s’articulent les uns aux autres avec plus ou moins d’intensité et de distance. Ils ont un impact important sur les modalités d’organisation de l’activité industrielle qu’ils mobilisent dans la zone concernée. En effet, la nanobiologie est essentiellement structurée autour de nombreuses petites entreprises et des grands groupes pharmaceutiques, alors que les activités industrielles concernées par la nanoélectronique s’organisent, pour l’essentiel, autour de très grands groupes, quelques petites entreprises et des grands équipements partagés.

    - Ingénierie moléculaire
    L'ingénierie moléculaire, rendue possible grâce à l'invention d'un instrument comme le microscope à effet tunnel, consiste à construire et développer des molécules « à façon ».

    - Médicales
    Les communautés biologiques et médicales exploitent les propriétés des nanomatériaux pour des applications variées (des agents contrastants pour l'imagerie de cellules, des thérapeutiques pour la lutte contre le cancer).

    On regroupe sous le terme de nanobiologie et de nanomédecine les applications dans ce domaine. En France, Patrick Couvreur est le plus ancien représentant des chercheurs de ce courant des NST.

    On peut ajouter des fonctions aux nanomatériaux en les interfaçant avec des structures ou des molécules biologiques. Leur taille est en effet assez proche. Les nanomatériaux sont donc utiles à la recherche et aux applications in vivo et in vitro. Cette intégration permet l'émergence d'outils de diagnostic ou d'administration de médicaments.

    - Énergétiques
    On peut voir des avancées dans le domaine du stockage, de la production d'énergie ainsi que dans celui des économies d'énergie.
    * Des structures empilées de semi-conducteurs permettent d'atteindre de bien meilleurs rendements pour les cellules photovoltaïques.
    * Des réductions de la consommation d'énergie sont rendues possibles par des systèmes d'isolation thermique, une amélioration des matériaux conducteurs. Dans le domaine de la production de lumière, l'utilisation de matériaux issus des nanotechnologies tels que les LED permettent d'obtenir un rendement très intéressant.
    * L'utilisation de matériaux nano-poreux pour le stockage de l'hydrogène pourrait enfin permettre de démocratiser son utilisation, actuellement bloqué par la faible quantité d'hydrogène stocké dans les réservoirs conventionnels qui sont par ailleurs bourrés de défauts (fuites, rendements médiocres, lourds, chers, etc.)
    Cet hydrogène pourrait alors être utilisé dans des moteurs à combustion ou par des piles à combustible.




      • L'utilisation des nanotubes de carbone dans le domaine du stockage de l'électricité pourrait permettre de créer une pile, nommée supercondensateur, qui se rechargerait en quelques secondes, tout en étant plus légère qu'une batterie chimique et en ayant une durée de vie d'environ 3 000 ans.
    - Électroniques
    Les structures des puces électroniques ou des circuits intégrés sont déjà à l'échelle du nanomètre et utilisent intensivement les nanotechnologies. Les avancées sont constantes dans les domaines des communications, du stockage d'information et du calcul.
    Il n’y a guère longtemps, on considérait qu'intégrer des composants de deux microns, soit 2*10[SUP]-6[/SUP] m, serait le seuil de miniaturisation absolu pour des dispositifs à semi-conducteurs (l'épaisseur du trait sur les circuits des premiers processeurs d'Intel était de l’ordre de 10 microns. À cette époque on pensait qu’il serait bien difficile de dépasser la barrière d'un micron).

    En 2004, des architectures de 90 nanomètres (0,09 microns) constituent l’état de l’art et les processeurs sont produits en masse avec une finesse de 65 nanomètres dès le premier semestre 2006. Des puces gravées en 45 nanomètres sont sorties mi-2007, des puces en 32 nanomètres sont sorties en 2009, la gravure en 22 nanomètres est sortie en 2012 et le 14 nanomètres est prévue pour 2013. Mais il y a une limite absolue, tout du moins pour une technologie héritée des procédés conventionnels de photolithographie, y compris les évolutions des technologies actuelles, telles que la photolithographie « extrême-UV », la lithographie à rayon X durs, la gravure par faisceau d'électrons, etc. Les nanotechnologies suggèrent une nouvelle approche plus radicale lorsque les voies classiques auront atteint leurs limites.


    Deux difficultés majeures prédominent dans la construction de circuits électroniques à base de nanotechnologie, et donc dans l'émergence de la nano-informatique :

    * À l’échelle du nanomètre, tout objet n’est qu’un assemblage des mêmes briques élémentaires : les atomes. À cette échelle du millionième de millimètre, les propriétés physiques, mécaniques, thermiques, électriques, magnétiques et optiques dépendent directement de la taille des structures et peuvent différer fondamentalement de celles du matériau au niveau macroscopique, tel qu’on l'exploitait jusqu’à présent. Cela est dû à un ensemble de raisons qui incluent le comportement quantique, mais également l’importance croissante des phénomènes d'interface.
    * On est à ce jour incapable de maîtriser l’assemblage coordonné d’un très grand nombre de ces dispositifs de commutation (par exemple transistor à nanotubes de carbone - CNFET pour « Carbon Nanotube Field Effect Transistor » ou encore circuits électroniques mono-moléculaires hybrides, etc.) sur un circuit et encore moins de réaliser cela sur un plan industriel.

    Derrière les définitions des NST ?


    La diversité des recherches engagées dans le domaine des NST ainsi que la variété des savoirs mobilisés, a amené la constitution de plusieurs définitions des NST dans la littérature. Ce constat peut s’appuyer sur deux idées centrales qui ont un impact important sur notre capacité à trouver une définition unique et stable :

    – le taux de croissance élevé (nombre d’articles et nombre de brevets par exemple) de cette discipline par rapport à des sciences établies (en incluant les biotechnologies qui sont en train de se stabiliser) ;

    – la nature floue des frontières de cette jeune discipline qui assemble et réorganise des savoirs jusqu’alors (en partie) cloisonnés.

    - Définition par les propriétés de la matière
    Les NST peuvent être caractérisées par l'étude de nouvelles propriétés de la matière apparaissant à l'échelle nanométrique, en particulier avec les effets de surface et les effets quantiques.

    En effet, à l'échelle nanoscopique, le rapport entre les différentes forces d'interactions est différent du rapport à l'échelle macroscopique. Les forces de surface deviennent prépondérantes face aux forces d'inertie, en effet :

    – les forces d'inertie et le poids varient avec le cube de la longueur caractéristique des objets manipulés (forces volumiques).
    – les forces de surface telles que les forces de Van der Waals ou les forces électromagnétiques varient avec le carré de la longueur caractéristique de l'objet.
    – la force de Casimir est souvent non négligeable, et les axes frottent davantage que si elle n'existait pas.

    De surcroît, les faibles dimensions permettent de faire intervenir des effets quantiques tels que l'effet tunnel, le transport balistique et l'émission de champs. Il existe des applications directes dans le domaine des semi-conducteurs qui ouvrent des perspectives pour les supraconducteurs.


    Pour des tailles de l'ordre du nanomètre, les caractéristiques électriques, mécaniques ou optiques des matériaux changent. D'autre part, les rapports de surfaces devenant prépondérants, les nanotechnologies ouvrent des perspectives en chimie, en particulier pour la catalyse.


    - Définition par l'approche d'en bas
    Il est également possible de définir les nanosciences et nanotechnologies par la nouvelle démarche qui les caractériserait.
    Historiquement, le processus de fabrication d’une machine ou d’un objet manufacturé simple relève de manipulations et d’agencements essentiellement macroscopiques. Les matériaux sont produits, mis en forme par enlèvement de matière ou déformation, puis assemblés à l’échelle de grands agrégats de matière. Plus récemment, l’exemple de la microélectronique montre que nous sommes en mesure de produire sur une surface équivalente, un nombre toujours plus élevé d’éléments constituants. Ainsi le nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans (vérifiant la loi de Moore). Cette augmentation illustre le phénomène de miniaturisation qui prédomine en microélectronique et plus largement en électronique.

    Par opposition, la nanotechnologie s'appuie sur le procédé inverse : elle consiste à partir du plus petit pour aller vers le plus grand. Elle va de l’intérieur (des atomes) vers l’extérieur (les machines et les produits manufacturés). C’est pour cela que nous la qualifierons de technologie « ascendante ». La nanotechnologie est donc la discipline qui vise à étudier, manipuler et créer des groupes d'atomes puis des objets manufacturés par le contrôle individuel des atomes, « du bas vers le haut ».


    Dans cette perspective, le terme générique « nanotechnologies » concerne l'assemblage contrôlé d'atomes et de molécules en vue de former des composants de taille supérieure caractérisés parfois par de nouvelles propriétés physico-chimiques.

    Nanotechnologies et applications

    - Nanoparticules, nanomatériaux et applications commercialisées
    Même s'il y a eu un engouement sur les applications potentielles des nanotechnologies, une grande partie des applications commercialisées se limite à l’utilisation d’une « première génération » de nanomatériaux passifs. Cela inclut les nanoparticules de dioxyde de titane dans les crèmes solaires, cosmétiques et certains produits alimentaires ; des nanoparticules de fer dans le packaging alimentaire ; des nanoparticules d’oxyde de zinc dans les crèmes solaires et les cosmétiques, dans les enduits extérieurs, peintures, et dans les vernis d’ameublement ; et des nanoparticules d’oxyde de cérium intervenant comme un catalyseur de carburant.

    Un projet, The Project on Emerging Nanotechnologies, recense les différents produits contenant des nanoparticules et fondés sur des nanotechnologies. En 2007, ce projet identifie plus de 500 produits de consommation fondés sur des nanotechnologies. En 2008, le rapport issu de ce projet nous indique que le principal secteur concerné par les produits de consommation nanotechnologiques est celui de la santé et des sports (vêtements, accessoires de sports, cosmétiques, soins personnels, crème solaire, etc.) avec 59 % des produits, suivi de l’électronique et de l’informatique qui en rassemble 14 % (audio et vidéo ; caméra et pellicules; matériel informatique; dispositifs mobiles et communication).


    - Approche bottom up et perspectives
    De plus, les applications exigeant la manipulation ou l'arrangement des composants à une échelle nanométrique (atome par atome) nécessitent l’approfondissement des recherches en cours avant d’aboutir à leur commercialisation. En effet, les technologies actuellement marquées avec le préfixe « nano » sont parfois peu liées et éloignées des objectifs finaux annoncés par les nanotechnologies, en particulier dans le cadre de la fabrique moléculaire qui est une idée toujours suggérée par le terme. Ainsi, il peut y avoir un danger qu'une « bulle nano » se forme (ou soit en train de se former), issue de l'utilisation du terme par les scientifiques et les entrepreneurs afin de recueillir des moyens financiers supplémentaires, aux dépens de l’intérêt réel que représentent les possibilités des transformations technologiques à long terme.

    David M. Berube, dans un livre sur la bulle nanotechnologique, conclut également dans ce sens en rappelant qu’une partie de ce qui est vendu en tant que « nanotechnologies » est en fait un remaniement de la science des matériaux. Ce phénomène pourrait mener au fait que les nanotechnologies soient représentées par une industrie fondée essentiellement sur la vente de nanotubes et de nanowires (fils unidimensionnels mesurés en nanomètres), ce qui aurait pour effet de limiter le nombre de fournisseurs à quelques entreprises vendant des produits à faibles marges avec des volumes très conséquents

    Organisation

    - Financements
    La recherche scientifique requiert un investissement souvent important. Dans le cas des nanotechnologies, où l’objet d’étude se spécialise et qui nécessite des équipements spécifiques et coûteux, les investissements nécessaires ne peuvent être supportés par une seule équipe. Pour continuer leurs recherches, les scientifiques et les ingénieurs sont financés par une grande diversité d’acteurs qui peuvent être regroupés en trois catégories:
    * Les organisations publiques (États) : les gouvernements soutiennent fortement à la fois la recherche appliquée et la recherche fondamentale. En effet, certains pays ont un système de validation des brevets qui leur sont propres, ainsi qu’un grand nombre d’agences et de départements, qui permettent de favoriser l’obtention de contrats ou la protection de la propriété intellectuelle. Les organisations publiques jouent donc un rôle important dans le déploiement des moyens de coordination, permettant d'améliorer la circulation des connaissances dans la communauté scientifique, ainsi que de favoriser la rencontre entre les chercheurs, organisations, universités et institutions.
    * Les organisations à but non lucratif : les universités constituent le cœur de cette catégorie, bien que pour leurs recherches elles reçoivent souvent des financements de sources extérieures, comme le gouvernement mais aussi les secteurs industriels concernés. Dans cette catégorie interviennent aussi une multitude d’organisations de bases privées et d'autres organismes qui soutiennent, sans objectifs directement financiers, la recherche en sciences.
    * Entreprises et secteur privé : dans la plupart des pays développés, le secteur privé est à l’initiative d’environ les trois quarts des dépenses nationales de recherches et de développement. Cette importance du secteur privé est à nuancer avec des situations comme celles des États-Unis ou de l'Union européenne, qui ont des gouvernements qui investissent dans les NST en proposant une politique de recherche et d’innovation forte, en particulier dans les premières phases de développement de secteurs industriels nouveaux, comme l’est celui des NST.


    En prenant en compte à la fois les investissements privés et publics de recherche et développement concernant les nanotechnologies, il est possible de positionner les pays les uns par rapport aux autres en fonction du volume des investissements réalisés. Toutefois, cette opération nécessite des précautions dans la mesure où, d’une part la taille des entités comparées intervient et d’autre part, pour le fait que chaque gouvernement a souvent un appareil ainsi que des modalités de financements de la recherche spécifiques. Ainsi, en 2005, la recherche et développement des NST était financée à la hauteur de 48,1 % par les gouvernements, de 46,6 % par les entreprises et 5,2 % par du capital risque pour un total investi sur l’année de 9,57 milliards de dollars. En suivant cette répartition, le pays arrivant en tête est les États-Unis (1,606 milliard de dollars), suivi du Japon (1,1 milliard de dollars), de l'Allemagne (413 millions de dollars), de l’Union européenne (269 millions de dollars), et de la Chine (250 millions de dollars). La France, quant à elle, arrive en 8[SUP]e[/SUP] position, en cumulant un total de 103 millions de dollars dédié à la recherche et développement des nanotechnologies.


    - Structuration institutionnelle et institutions concernées
    En Europe, le 7[SUP]e[/SUP] PCRD joue un rôle important dans l'organisation des recherches en NST à l'échelle du continent. Le 7[SUP]e[/SUP] Programme Cadre de Recherche et Développement est issu de la stratégie de Lisbonne, dont les objectifs généraux ont été décidés en 2000, qui définit les orientations économiques et politiques afin de doter l'Union européenne d’une économie de la connaissance compétitive et dynamique : « Les objectifs généraux du 7[SUP]e[/SUP] PC ont été regroupés en quatre catégories : Coopération, Idées, Personnes et Capacités. Pour chaque type d’objectif, il existe un programme spécifique correspondant aux domaines principaux de la politique de recherche de l’UE. Tous les programmes spécifiques œuvrent en commun pour promouvoir et encourager la création de pôles européens d’excellence (scientifique)». L'Union européenne annonce plus d’un doublement des budgets alloués aux programmes cadres qui passeraient d’environ 20 milliards d’euros (entre 2002 et 2006) à 53,2 milliards (pour la période 2007 à 2013). À ce titre, les nanotechnologies figurent en bonne position dans la catégorie Coopérations du 7[SUP]e[/SUP] PCRD, qui visent essentiellement à favoriser la création de partenariats entre différentes équipes de recherche européennes (et les pays partenaires), ainsi qu’à développer des recherches pluridisciplinaires et transversales.

    En symétrie avec le Programme cadre de l'Union européenne, les États-Unis ont défini la National Nanotechnology Initiative (NNI) qui a débuté en 2001. Contrairement à l’Union européenne, ce programme fédéral de Recherche et Développement est spécifiquement dédié aux nanotechnologies, mais vise également à coordonner les efforts des multiples agences qui travaillent à une échelle nanométrique en science et technologie. En 2008, le budget alloué à la NNI serait de 1,5 milliard de dollars, soit plus du triple des dépenses estimées pour l’année 2001 (464 millions de dollars).


    Au regard des sommes investies, ce type de programme influe fortement sur la structuration des espaces de la recherche scientifique et sur la nature des collaborations engagées. En effet, c’est à partir d’axes initiaux de développement que sont définis des objectifs concrets qui amènent à construire des appels à projets.
    À noter en matière de nanotechnologies, l'importance de la technopole grenobloise qui représente un bassin de recherche et d'ingénieurs unique en Europe dans ce domaine. Des pays émergents, notamment le Maroc, ont créé des zones prioritaires dédiées à la recherche en nanotechnologies.

    Dangerosité


    Les nanomatériaux sont reconnus comme toxiques pour les tissus humains et les cellules en culture.

    Ils induisent un stress oxydant, des inflammations à la cytokine et la nécrose cellulaire. Contrairement aux particules plus larges, les nanomatériaux peuvent être absorbés par les mitochondries et par le noyau cellulaire Des études ont démontré, la possibilité pour les nanomatériaux de causer des mutations de l'ADN et d'induire des changements majeurs à la structure mitochondriale, pouvant conduire à la mort de la cellule. Les nanoparticules peuvent être mortelles sur le cerveau des truites avec des effets comparable à un empoisonnement au mercure.

    Un projet dit « Nanogenotox » projet Nanogenotox , coordonnée par l'Afsset mais impliquant plusieurs pays européens vise sur 3 ans à offrir à la Commission européenne « une méthode alternative, robuste et fiable de détection du potentiel génotoxique des nanomatériaux susceptibles d’engendrer un risque de cancer ou de toxicité pour la reproduction chez l'Homme ». Dans ce cadre, 14 nanomatériaux manufacturés (classés en trois groupes : dioxyde de titane, silice et nanotubes de carbone choisis car déjà utilisés dans des produits tels que cosmétiques, aliments, produits de consommation courante) seront étudiés dont du point de vue des risques d'exposition (orale, cutanée, inhalée, avec test in vivo) et de leur production en Europe.


    Sociologie


    Dans les sciences sociales, les NST se présentent encore comme un objet émergent. En France, le CNRS a créé une commission interdisciplinaire « Impacts sociaux des nanotechnologies » qui a fonctionné entre 2004 et 2007, mais n’a pas été renouvelée. Les travaux sur les usages effectifs sont inexistants, puisque les gens, pour la plupart dans l’ignorance de ce que sont les nanotechnologies, n’ont rien à en dire, qui fournirait matière à des entretiens et des questionnaires. Les sociologues se concentrent pour le moment sur l’analyse des discours qui sont tenus par les scientifiques et les hommes politiques (à l'exception des études de laboratoire, qui portent leur attention sur les changements de pratiques et d'organisation liés à l'émergence des nanotechnologies).


    - Projet de société des rapports scientifiques
    Les NST impliquent une ingénierie d'assemblage qui associe étroitement science et technologie : elles permettent donc d'envisager les applications technologiques futures, lesquelles représentent des enjeux économiques considérables. Tous les laboratoires affichant leur appartenance au domaine des NST n'ont pas nécessairement infléchi leurs thématiques de recherche. Certains ont « re-labellisé » leurs travaux en ajoutant le préfixe « nano » à l'intitulé de leur programme, sans rien changer sur le fond. Les NST alimentent ainsi un discours de la promesse, avec ses retombées économiques, mais aussi institutionnelles, politiques et idéologiques. Les sociologues analysant le contenu des rapports des institutions de la recherche constatent que depuis le début des années 2000 ceux-ci ne sont plus seulement diagnostiques : ils formulent un véritable projet de société. Le développement de ces nouvelles techniques est présenté comme irrésistible et conduisant naturellement au progrès social, selon une vision scientiste, c'est-à-dire mécanique, rationnelle et programmable de l'évolution des connaissances. Les développements technologiques sont présentés comme inévitables par des experts, qui sont suivis par les responsables politiques, induisant un développement tout aussi inéluctable de la société. Une science prédictive de la société permet de justifier les politiques à mettre en œuvre, y compris les actions correctives destinées aussi bien à limiter les risques qu'à réduire les résistances.

    - Débat sur les risques
    Les nanotechnologies sont l'objet d’un débat de société, qui a d’abord été limité au milieu scientifique. Le débat est entré dans l'arène médiatique en 2000 avec l'article de Bill Joy « Pourquoi le futur n'a pas besoin de nous » dans la revue Wired, l'un des titres les plus connus de la cyberculture. Dans les pays industrialisés le débat public émerge à peine alors que de nombreux nanoproduits sont fabriqués et diffusés. C'est le cas aux États-Unis notamment ou au Royaume-Uni.
    Les enjeux et les risques induits par l’incorporation de matériaux nanotechnologiques(en particulier avec les nanoparticules) ainsi que les nouvelles applications qui seront permises par le biais de la maîtrise de la fabrication à l’échelle atomique, suscitent des inquiétudes.

    Nanotoxicology, une revue scientifique publiée depuis 2007 par Taylor & Francis Group, est consacrée spécifiquement à l'étude de la toxicité des nanotechnologies.


    La possibilité pour les nanomachines de se reproduire elles-mêmes, en mimant le vivant, implique également le risque d'une perte de contrôle à la suite de mutations non voulues ni prévues. La « gelée grise » est sans doute la peur la plus emblématique des nanotechnologies : un amas de nanoparticules qui, devenu autonome, voire organisé, pourrait tout détruire, y compris la croûte terrestre, pour se reproduire. Toutefois, il est important de tempérer cette inquiétude, étant donné que les NST n'en sont qu'a leurs débuts. Bien que l'on ait déjà des exemples d'utilisations de ces dernières dans des produits commercialisés, elles n'interviennent pour l'instant qu'en termes de modification de propriétés de la matière ; la plupart des spécialistes du sujet considèrent que les applications des NST qui touchent aux « nanomachines » tiennent, pour le moins, du très long terme.

    - Réactions militantes
    En France, les réactions au phénomène des nanotechnologies vont du questionnement à la dénonciation.
    Réalisé en 2007, le documentaire "Le Silence des Nanos" de Julien Collin se veut « une mise en questionnement critique et néanmoins rationnelle de l'activité scientifique et du développement technologique d'un point de vue anthropologique, philosophique et politique ».

    Plus engagé, le groupe Marseille-Aix de l'Association internationale Jacques Ellul, recadre les recherches sur les nanotechnologiques dans le contexte du transhumanisme, phénomène qu'il explique lui-même selon les thèses exprimées dès le milieu du XX[SUP]e[/SUP] siècle par le sociologue Jacques Ellul. Celui-ci considère que la technique a changé de statut : elle a cessé d'être « un vaste ensemble de moyens assignés chacun à une fin », elle s'est muée en « milieu environnant à part entière » pour devenir « un phénomène complètement autonome (...) échappant de plus en plus au contrôle de l'homme et faisant peser sur lui un grand nombre de déterminations ». Ellul précise qu'on ne peut critiquer la technique sans se référer à des considérations métaphysiques : « Ce n'est pas la technique qui nous asservit mais le sacré transféré à la technique » tandis que la politique, face à ce sacré ne peut-être qu'impuissante et même « illusoire».


    Plus ancré dans le champ politique, misant sur une réaction citoyenne mais se défendant d'être technophobe, le collectif grenoblois Pièces et main d'œuvre voit dans les nanotechnologies l'expression d'un nouveau totalitarisme.


    Chronologie





      • 1911 : première utilisation du préfixe « nano » par un scientifique, qui veut dire nain en grec.
      • 1956 : choix du préfixe « nano » par le BIPM comme une sous unité du mètre
      • 1974 : première mention du terme nanotechnologie, forgé par Norio Tanigushi
      • 1974 : invention de la diode moléculaire par A. Aviram et M. Ratner
      • 1987 : la pointe du microscope à effet tunnel est utilisée par des chercheurs d'IBM pour faire commuter un seul interrupteur moléculaire
      • 1990 : des chercheurs d'IBM écrivent le nom de leur société avec 35 atomes de xénon à l'aide d'un microscope à effet tunnel
      • 1995 : premier contact électrique sur une seule molécule
      • 1997 : premier amplificateur réalisé avec une seule molécule
      • 1998 : première observation de la rotation d'une molécule rotor de 1 nm de diamètre
      • 2001 : invention de la molécule brouette par des chercheurs toulousains
      • 2006 : Intel est en phase de test pour la gravure en 45 nm qui devrait arriver en 2007
      • 2007 : invention du premier dispositif mécanique moléculaire : un pignon le long d'une crémaillère
      • 2012 : Intel commercialise les Ivy Bridge gravés en 22 nm


    ________________________________

    Nom de la page : Nanotechnologie
    Source : Article Nanotechnologie de Wikipédia en français (auteurs)
    Contenu soumis à la licence CC-BY-SA 3.0.
    Les textes sont disponibles sous licence Creative Commons paternité partage à l’identique
    ________________________________


    Nanotechnologies

    Première partie



    Deuxième partie





     
    Dernière édition: 25 Mai 2016
  2. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113



    Nanoparticule


    Une nanoparticule (ou particule outre-fine) est définie par la norme ISO TS/27687 comme étant un nano-objet dont les trois dimensions sont à l'échelle nanométrique, c'est-à-dire une particule dont le diamètre nominal est inférieur à 100 nm environ. Une autre définition, plus large, qualifie de «nanoparticule» un assemblage d'atomes dont au moins une des dimensions se situe à l'échelle nanométrique ; ceci correspond à la définition de «nano-objet» selon la norme ISO précitée.

    Certaines nanoparticules (naturelles ou artificielles), diffusées dans l’environnent, notamment par l'air ou via les eaux usées, sont fortement suspectées d'avoir des effets négatifs sur l'environnement , et sur la santé quand elles sont inhalées ou qu'elles pénètrent le corps via la peau, l'eau ou l'alimentation ; «Les études toxicologiques démontrent clairement que la très petite taille des nanoparticules est un élément-clé au niveau de la toxicité, surtout au niveau des particules non ou peu solubles (...) les propriétés de surface, la capacité à induire des radicaux libres ou à libérer certains ions peuvent également influer substantiellement sur la toxicité. Plusieurs effets pulmonaires ont été documentés dont la capacité de certaines nanoparticules à induire des granulomes pulmonaires. Les données actuellement disponibles semblent indiquer par ailleurs que l’absorption cutanée serait relativement limitée»
    (Source : Ostiguy et al., février 2006 ).

    Éléments de définition


    Une nanoparticule est également définie comme ayant «un diamètre suffisamment petit pour que les propriétés physiques et chimiques diffèrent de façon mesurable de celles des matériaux en vrac».

    Pour la Royal Academy of Engineering (2004), «la nanoscience est l’étude des phénomènes et la manipulation de matériaux aux échelles atomique, moléculaire et macromoléculaire où les propriétés diffèrent significativement de celles à plus grande échelle».

    On peut également classer les nanoparticules/nano-objets selon leur taille dans chacune des trois dimensions :

    • les fullerènes, particules, etc. ont leur trois dimensions dans le domaine nanométrique (point) ;
    • les nanotubes, dendrimères, nanofils, fibres et fibrilles ont deux dimensions nanométriques (ligne) ;
    • les films minces n'ont qu'une dimension nanométrique (plan).

    Échelles de taille


    Du point de vue dimensionnel, les nanoparticules/nano-objets se situent entre la matière dite macroscopique et l'échelle atomique ou moléculaire. Leur taille est donc bien inférieure à celle d'une cellule humaine.

    Enjeux économiques et éthiques, risques sanitaires et environnementaux


    La diffusion rapide et la commercialisation des nanoparticules soulèvent de grands espoirs économiques et techniques, mais aussi des questions nouvelles sur les risques émergeant pour la sécurité, la santé et l'environnement, dans un contexte de connaissances scientifiques encore très lacunaires.

    En tant qu'altéragènes physiques ou chimiques, ce sont des polluants potentiels de tous les milieux (air et eau, mais aussi sol et réseau trophique, via la bioaccumulation), que ce soit seuls, en groupe ou en synergie avec d'autres polluants. De plus, ces nanoparticules sont souvent plus toxiques et écotoxiques que leurs homologues de taille supérieure. Et elles pénètrent facilement les organismes fongiques, animaux, végétaux ou microbiens. Certaines nanoparticules, en contact avec l'air, sont en outre une source de risques d’incendie ou d'explosion. En raison de caractéristiques nouvelles (caractères physico-chimique liés à leur taille, surface spécifique, point de charge nulle, potentiel zeta..), les modèles utilisés pour les particules et micro-particules ne fonctionnement plus.
    Or, en 2009, selon le NanoTech Project 1 015 produits de consommation courante contenaient déjà des nanoparticules, contre 54 en 2005 (+ 1 000 % en 4 ans), avec une production mondiale de plusieurs millions de tonnes de nanoparticules, et une écotoxicité encore presque connue. On les trouve déjà dans les eaux usées.


    L'utilisation de nanoparticules (ex d'oxyde de cérium chez l'homme ou l'animal comme moyen de limiter la perméabilité de l'intestin à certains radionucléides, ou la «nanoremédiation» elle-même, qui se développe en Amérique du Nord, utilise de fortes doses de NP pour dépolluer les sols.

    Dans certains cas, elles sont volontairement introduites dans l'organisme humain (produit de contraste, avec par l'exemple de l'oxyde de fer nanoparticulaire (Ultrasmall superparamagnetic iron oxide), approuvé par la FDA).

    Types d'exposition et de maladies associées,
    telles que suspectées suite aux études épidémiologiques
    et études in vitro disponibles.



    [​IMG]

    Description : Types d'exposition (inhalation, ingestion, passage percutané),
    et impact associés, tels que fortement suspectés suite aux études épidémiologiques,
    et essais in vitro.
    Date : 2010-12-01 21:34 (UTC)
    Source : Nanotoxicology.jpg
    Auteur : Nanotoxicology.jpg: Cristina Buzea
    derivative work : F. Lamiot (talk)
    Moi, propriétaire du copyright de cette œuvre, la place dans le domaine public.
    Ceci s'applique dans le monde entier.
    Dans certains pays, ceci peut ne pas être possible ; dans ce cas :
    J'accorde à toute personne le droit d'utiliser cette œuvre dans n'importe quel but,
    sans aucune condition, sauf celles requises par la loi

    Ce fichier et sa description proviennent de Wikimedia Commons.

    _______________________________________________

    Plusieurs travaux de recherche commencent à aborder ces questions.

    • Gottschalk et al. (2009) ont modélisé la contamination potentielle des eaux et sols européens (jusqu'à 0,003 ng/L pour les fullerènes et21 ng/l pour les NP-TiO2 dans les eaux de surface). Le sol, de manière préoccupante peut aussi accumuler des NP (89 μg/kg en NP-TiO2 par an vers 2008/2009, sachant que ce modèle ne tient compte que de l'usure et du recyclage classique des nanoproduits, et non des disséminations accidentelles ou volontaires de NP dans l'environnement).
    • Dans les eaux douces, et in vitro, au gré de processus physicochimiques complexes, des nanoparticules peuvent s’agréger et se déposer.
      Les nanoparticules d'argent s'avèrent toxique pour l'embryon du poisson-zèbre et on a montré que le titane nanoparticulaire peut interférer avec les algues en augmentant leur capacité à absorber le cadmium toxique. On a démontré des effets génotoxiques et cytotoxiques de nanoparticules d'argent pour les cellules d'une espèce-modèle de poisson (jugée représentative des risques génotoxiques pour de nombreuses espèces, dont de grand mammifères tel que les baleines), sur la base d'études in vitro sur des lignées cellulaires de poisson (Oryzias latipes) exposées à des nanosphères d'argent de 30nm de diamètre (qui ont notamment induit des aberrations chromosomiques et des aneuploïdies.
    • Les impacts sur l'écosystème sol (dont sur la biomasse en bactéries et ver de terre) et l'utilisation possible de cette microfaune pour la remédiation de sol est évoquée par le CEA et l'adème en 2010 qui font état des avancées permises par Cornelis et son équipe qui ont mis au point une méthode de détermination de la rétention/mobilité de nanoparticules d’argent (NP-Ag) et d’oxyde de cérium (NP-CeO2, additif toxique commun des carburants diesel) dans les sols, ce qui permettra de mieux évaluer les risques de recontamination de l'air et de contamination de l'eau, et de mieux évaluer leur biodisponibilité pour les organismes vivants (microbes, champignons, végétaux et animaux).
      Dans le sol, on a aussi montré que des nanoparticules pouvaient interférer avec la mycrorhyzation, en facilitant la bioaccumulation de Césium radioactif, ce qui pourrait être intéressant pour dépolluer un sol, avec le risque - dans un milieu non contrôlé - de faciliter des transferts de toxique dans la chaine alimentaire.
      Des effets sur le microbiote sont mis en évidence pour l'argent nanoparticulaire dans le sol.
    • Étant présent dans les eaux usées, des nanoparticules peuvent être accumulées dans les sédiments, où l'on a montré qu'ils pouvaient affecter des animaux fouisseurs et filtreurs vivant dans la vase (un polychète en l’occurrence)
    • Fang X a étudié la toxicité de trois nanoparticules (ZnO, CeO2 et TiO2) sur une bactérie Nitrosomonas europeae, communément présente dans le sol, montrant que toutes les bactéries exposées ont une taille inférieure à la normale, et que cette diminution de taille varie (non linéairement) avec la taille et la forme des nanoparticules. Les bactéries exposées aux NP-TiO2 deviennent distordues et présentent des cavités anormales en leur sein bien que les NP semblent très peu absorbées à l'intérieur de leur organisme, et que très peu de NP soient adsorbées à leur surface. Les nanoparticules de ZnO déforment moins les bactéries, mais endommagent plus leur enveloppe. Le CeO2 nanoparticulaire quant à lui ne semblait pas endommager les tissus externes, mais provoquaient l'apparition de vides intracellulaires quand il était adsorbé sur des parois. Le NP-ZnO est absorbé par les Nitrosomonas europeae|Nitrosomonas europeae et la dissolution des du ZnO nanoparticulaire en Zn2+ pourrait expliquer la toxicité de ces nanoparticules.
    • Des données sont parues en 2010 sur le bioaccumulation et les impacts de différentes tailles (10 à 20 nm de diamètre) de nanoparticules pour deux molécules (TiO2 et ZnO, très utilisés dans les crèmes solaires et des produits autonettoyants) sur un ver de terre (Eisenia fetida), à relativement « forte » dose (exposition à 5 g de nanoparticules par kg de terre, durant 7 jours, taux possibles en cas d'accident ou d'apports volontaires). Les NP-ZnO se sont montrés plus toxiques et bioaccumulables pour le ver de terre que les NP-TiO2, et leur toxicité n'a été étudiée qu'à des doses élevée qui seront a priori rares dans la nature. D'autres études ont porté sur ce même vers.
      Des nanoparticules peuvent être bioaccumulées par le poisson zèbre après qu'elles l'ont été par des proies telles que les daphnies.
    • Des nanoparticules de fer (fer à la valence zéro (ZVI), sulfure de fer (FeS) et magnétite (Fe3O4) peuvent faciliter l'inertage de l'arsenic dans les sols, mais la toxicité de ces particules pour l'écosystème et l'homme n'a pas été étudiée, et l'efficacité des nanoparticules n'a pas été comparée avec celle de microparticules.
    • Des effets posibles sur les plantes cultivées sont détectés (2012) ; Alors que l'effet de la bioaccumulation de métaux "normaux" est déjà jugé préoccupant pour la sécurité alimentaire ou même pour la santé des plantes cultivées (dont du soja lui-même), il était inconnu jusqu'en 2012 pour les formes nanoparticulaires de ces mêmes métaux. L'effet de deux nanoparticules déjà couramment et massivement diffusées dans l'environnement (oxyde de zinc très fréquent dans les produits cosmétiques, et dioxyde de cérium massivement émis par les pots catalytiques) a été étudié par un consortium scientifique international, sous serre et en atmosphère contrôlée, sur une plante cultivée, le soja. Selon les premiers résultats (publiés en 2012) l'exposition à l'une ou l'autre de ces nanoparticules affecte les plants de soja et la fertilité du sol ;
      - L'exposition au nano-zinc est sans effet de seuil pour l'oxyde de zinc. Celui-ci même à très faible dose accentue légèrement la croissance de la plante. Mais il est bio-accumulé dans ses parties comestibles (feuille, graines ainsi "contaminées") ;
      - Le dioxyde de cérium inhibe au contraire la croissance du soja. Il en diminue le rendement de culture. Il se fixe plutôt dans la racine et il réduit la captation de l'azote du sol (en contribuant donc à son eutrophisation, d'autant plus que cette réduction encourage l'agriculteur à augmenter ses engrais azotés pour maintenir les rendements agricoles). Il interagit aussi avec les bactéries du sol dont certaines vivent en symbiose avec les légumineuses.
      On ignore si à ces doses, les nanoparticules acumulées dans les graines et feuilles peuvent affecter la santé humaine ou l'celle des animaux domestiques (qui avec l'élevage hors-sol et les pisciultures consomment de plus en plus de soja).
      Les accumulations de nanoparticule peuvent être rendues visibles par des techniques de fluorescences aux rayons X, dont pour le zinc et le cuivre.

    - Génotoxicité
    Sans surprise, des molécules toxiques et génotoxique à doses "macro" peuvent se montrer également génotoxiques si ce n'est beaucoup plus sous forme nanomoléculaire (ex: Chrome VI), mais la génotoxicité de la plupart des nanoparticules doit être spécifiquement réétudiée.
    Elle est testée in vitro ou sur le modèle animal (rat...), et aussi chez des plantes et parfois chez l'homme, mais difficile à évaluer avec les tests classiques, et des résultats contradictoires sont données pour les courtes expositions. Certaines nanoparticules (Or, ou TiO2 par exemple) sont suspectées de pouvoir endommager l'ADN, sans que l'on sache encore si cet effet est dû à un stress oxydant ou à d'autres causes. La localisation nucléaire de nanoparticules d'or a été démontrée au microscope électronique à transmission ; Des liens avec certains cancers seraient possibles.
    La question des effets synergique commence aussi à être explorée, par exemple pour une exposition simultanée au DDT et à du titane nanoparticulaire, ou une exposition à des UV simultanément à des nanoparticules présents dans l’eau.


    Recherches et utilisations


    En recherche fondamentale et/ou appliquée, les nanoparticules sont objets d'étude depuis toujours (voir le questionnement sur la taille minimale des objets des grecs anciens qui a conduit au mot moderne d'atome). Aujourd'hui physiciens et chimistes poursuivent la recherche et découvrent, synthétisent et étudient les nanoparticules afin de comprendre et maitriser leurs structures et leurs propriétés.

    Les biologistes ou biochimistes les utilisent comme marqueurs cellulaires, particules vaccinales, support pour marqueurs fluorescents, etc.

    De par leurs propriétés, les nanoparticules sont intéressantes pour l'industrie (nanotechnologies), elles sont de plus en plus étudiées, surtout depuis les années 1990. Les nanoparticules entrent déjà dans la composition de divers produits pour la santé (crèmes solaires et cosmétiques), l'industrie du bâtiment (enduits extérieurs, peintures et vernis d’ameublement) ; mais aussi d'autres secteurs comme catalyseurs de carburant, pellicules et films pour l'image, l’électronique et l’informatique, etc.

    Propriétés nouvelles


    Les propriétés de la matière changent fortement quand la taille des objets se rapproche du nanomètre. Ceci est dû en partie au fait que la surface d'un matériau joue un rôle de plus en plus grand dans ses propriétés physiques lorsque sa taille décroît, alors que le nombre d'atomes appartenant à la surface est négligeable dans le cas d'un matériau macroscopique. Par contre, pour un objet nanométrique, la fraction des atomes appartenant à la surface est loin d'être négligeable. Entre autres, on peut noter que :

    • la température de fusion d'un corps pur de taille macroscopique est identique à sa température de solidification (0 °C pour l'eau par exemple). Pour une nanoparticule, cela n'est plus vrai et le matériau présente une hystérésis centrée autour de la température de transition de phase du corps pur macroscopique, cette hystérésis dépend de la taille de la nanoparticule ;
    • la dureté et durabilité d'un matériau macroscopique n'est pas la même que celle du matériau nanométrique. Elle est généralement bien plus élevée ;
    • la dynamique de l'interaction entre les électrons d'une nanoparticule et les modes de vibration de son réseau cristallin (phonons) dépend drastiquement de la taille de la nanoparticule.

    Toxicologie, écotoxicologie


    Les impacts sanitaires (toxicologiques et écotoxicologiques) des nanoparticules, qu'elles soient d'origine naturelle ou anthropique, sont encore très mal connus.
    Ils sont supposés importants car si ces particules n'ont presque pas de masse, leur surface de réaction est proportionnellement la plus grande (par unité de poids). Leur impact varie probablement selon leur taille, leur caractère hygrophile, lipophile, leur charge électrique, leur tendance à s'agglutiner ou non qui peuvent favoriser ou non leur passage des barrières biologiques (cellulaire, peau, muqueuses, poumon, intestin, barrière hématoencéphalique, placentaire, etc.). Par exemple, chez l'homme expérimentalement exposé à du technétium radioactif (facile à suivre), on a retrouvé ce technétium rapidement dispersé dans le sang, le tissu cardiaque et le foie, avec une élimination rénale rapide, mais les résultats diffèrent selon les études, et ce domaine reste très mal exploré.

    Des expériences animales, et d'exposition in vitro de cultures de cellules humaines, ont montré que les nanoparticules étaient facilement phagocytées par des cellules (bronchiques notamment). Pour échapper aux biais du modèle animal, des études ont même été faites sur l'homme, y compris en exposant des personnes en chambre fermée à des fumées de diesel (USA, Royaume-Uni, Suède). Les données sont encore limitées et ne permettent pas encore de suivi épidémiologique ou écoépidémiologique fin.

    Des nanoparticules phagocytées par une cellule peuvent interagir avec les membranes plasmiques et les organites cellulaires, d'autant que certaines de ces particules sont des catalyseurs. Elles peuvent initier la production d'espèces réactives de l'oxygène (= > stress oxydant impliquant des radicaux libres et leurs «effets en cascade»).
    Diverses études ont montré des effets à court-terme (ex : asthme et réponses inflammatoires pulmonaires, éventuellement chronique) des PUF, mais on soupçonne fortement aussi des effets à long terme.

    L'être humain et d'autres espèces vivantes sont notamment exposés à des nanoparticules ayant comme source des phénomènes d'usure mécanique (freins et pneus par exemple), et de combustion (incinération, pots d'échappement y compris pots catalytiques, centrales thermiques, certaines productions industrielles...).

    Des études, y compris chez l'être humain, ont mis en évidence qu'une importante part des nanoparticules inhalées atteignaient directement les alvéoles pulmonaires, d'où elles peuvent passer dans les cellules ou dans le sang. La pilosité nasale, le mucus et le transport mucociliaire n'éliminent que les grosses particules, les PUF (particules ultrafines) ne pouvant être éliminées que par des macrophages alvéolaires.

    En particulier, des particules ultrafines associées «à une hausse de la mortalité due à leur dépôt dans les poumons, cerveau et système circulatoire» sont produites par la combustion du bois ou autres combustibles et carburants (fuel, essence, moteurs Diesel), etc., et même par la combustion du gaz naturel (si ce dernier ne produit pas de suies de 10 et 100 nm, une étude de l’université Federico II de Naples (Italie) un brûleur de chauffe-eau au gaz ou de gazinière produit des particules de 1 à 10 nanomètres (nm) de diamètre se forment). Dans une chaudière à condensation leur taux est bas (0,1 milligramme par normo-mètre cube ou mg/Nm3) suite à leur oxydation optimisée dans la zone de la flamme, mais un brûleur de gazinière engendre des taux particulaires bien plus élevés (5 mg/Nm3) ainsi d'ailleurs qu'une «quantité significative» d’hydrocarbures aromatiques polycycliques qui pourraient peut-être interagir avec ces nanoparticules.

    Seuils et législation


    La plupart des pays n'ont pas pris le temps d'éditer de normes en matière d'exposition aux nanoparticules, bien que leur production industrielle soit déjà lancée (et que la pollution automobile en reste une source importante).

    En Europe,

    En 2009, les États se limitent généralement - au mieux - au suivi des PM 2,5 (dont en Europe conformément aux recommandations d'une directive), alors que les PM 1 sont celles qui sont susceptibles d'être le mieux absorbées par les organismes vivants.

    Mi-2008, suite à une première évaluation du Plan d'action européen en matière d'environnement et de santé 2004-2010 - le Parlement européen a déploré que les nanoparticules échappent au règlement européen Reach (car ce dernier a inclus des seuils de tonnages annuels de production que n'atteignent pas les laboratoires et industries produisant des nanoparticules) et que la commission européenne ait trop tardé à évaluer les risques et réglementer le marché des nanoparticules. Dans une résolution le parlement se dit « préoccupé par l'absence de dispositions juridiques spécifiques pour garantir la sécurité des produits de consommation contenant des nanoparticules et l'attitude désinvolte de la Commission face à la nécessité de revoir le cadre réglementaire relatif à l'utilisation des nanoparticules dans les produits de consommation, eu égard au nombre croissant de produits de consommation contenant des nanoparticules qui sont mis sur le marché».

    Une définition européenne harmonisée a été produite en octobre 2011. Elle définit comme nanoparticule «un matériau naturel, formé accidentellement ou manufacturé contenant des particules libres, sous forme d'agrégat ou sous forme d'agglomérat, dont au moins 50% des particules, dans la répartition numérique par taille, présentent une ou plusieurs dimensions externes se situant entre 1 nm et 100 nm», définition qui sera révisé d'ici décembre 2014 selon les retours d'expérience et nouvelles données scientifiques. Le règlement Reach est un premier cadre, très insuffisant car prenant mal en compte les faibles tonnages, mais ses annexes devraient être corrigées pour intégrer les "nano" et l'Agence européenne des produits chimiques (Echa) pourrait imposer de nouvelles obligations d'enregistrements après 2013.

    En France, le seuil préjudiciable est actuellement (2008) de 40 µg/m³ pour les PM 10. Une directive européenne devrait le faire passer à 25 µg/m³. Le groupe santé du Grenelle de l'environnement a demandé en 2007 qu'il soit aligné sur la recommandation de l'OMS qui est de 10 µg/m³.

    Suite à la loi Grenelle 2, deux décrets et un arrêté imposent depuis le 1er janvier 2013, aux fabricants, importateurs et distributeurs opérant en France de déclarer annuellement les quantités et usages qui les concernent à l'Agence nationale de sécurité sanitaire (Anses), et en retenant la définition européenne des nanoparticules. Les données identité et usages seront publiques dans les 6 mois suivant la date butoir de déclaration (1er mai 2013). Toutefois, le secret industriel et une définition restrictive (au dessus de 100 nm, l'Europe ne parle plus de nanoparticules) pourraient freiner cette volonté de transparence. De plus, le Comité scientifique des risques sanitaires émergents (européen) souhaitait un seuil très inférieur à celui adopté : selon lui la déclaration devrait porter sur les matériaux contenant à partir de 0,15% de nanoparticules (de 1 à 100 nm) et non 50%.

    Modes de production


    Les nanoparticules de synthèses sont actuellement produites par des méthodes diverses (en agglutinant des atomes (bottum-up) ou en dégradant des matériaux), dont :

    Synthèse chimique :


    • en phase vapeur (carbures, nitrures, oxydes, alliages métalliques, etc.) ;
    • en phase liquide (la plupart des métaux et oxydes) ;
    • en milieu solide (la plupart des métaux et oxydes) ;
    • en milieu mixte (sol-gel, pour la plupart des oxydes) ;
    • dans un fluide supercritique, mais sans réaction chimique (matériaux destinés à vectoriser des principes actifs) ;
    • réaction chimique dans un fluide supercritique avec (pour la plupart des métaux, des oxydes et quelques nitrures) ;
    • réaction de co-précipitation chimique ;
    • hydrolyse.
    Synthèse par des méthodes physico-chimiques

    • par évaporation/condensation (sous pression partielle inerte ou réactive) pour Fe, Ni, Co, Cu, Al, Pd, Pt, oxydes) ;
    • par pyrolyse laser (Si, SiC, SiCN, SiCO, Si[SUB]3[/SUB]N[SUB]4[/SUB], TiC, TiO[SUB]2[/SUB], fullerènes, suies carbonées, etc.) ;
    • par flammes de combustion, les particules étant récupérées dans les vapeurs et fumées ;
    • sous micro-ondes (Ni, Ag) ;
    • par irradiation (ionique ou électronique), par exemple pour produire des nanopores dans un matériau de dimensions macroscopiques ou pour produire une nanostructure intégrée dans une matrice) ;
    • par recuit à basse température (alliages métalliques et intermétalliques complexes avec trois à cinq éléments à base de Al, Zr, Fe.) ;
    • en plasma thermique (pour les nanopoudres céramiques tels que poudre de carbures (TiC, TaC, SiC), siliciures (MoSi2), oxydes dopés (TiO[SUB]2[/SUB]) ou complexes (pérovskites)) ;
    • Le dépôt physique en phase vapeur (des dépôts de TiN, CrN, (Ti, Al)N, notamment).
    Synthèse par méthodes mécaniques

    • mécanosynthèse et activation mécanique dans le domaine de la métallurgie des poudres (ex : broyage à haute énergie pour tout type de matériaux (métalliques, céramiques, polymères, semi-conducteurs)) ;
    • consolidation et densification ;
    • déformation par torsion, laminage ou friction.
    Synthèse par méthodes biologiques

    • production expérimentale de molécules organiques par des OGM (organismes génétiquement modifiés).

    Bonnes pratiques, plateforme interactive...


    Selon les informations disponibles au milieu des années 1990, Ostiguy et ses collègues ont conclu«que ces produits puissent être toxiques et que les moyens actuels de protection puissent ne pas être aussi efficaces qu’on le croit». (Source : voir la version PDF de l'étude Les nanoparticules : connaissances actuelles sur les risques et les mesures de prévention en santé et en sécurité du travail de Les nanoparticules : connaissances actuelles sur les risques et les mesures de prévention en santé et en sécurité du travail Ostiguy & al. déjà citée (Publication IRSST / Québec)), consulté 2010/12/01. (Postée en bas de page)

    • Des guides de bonnes pratiques sont apparus, fondés sur les connaissances scientifiques (au fur et à mesure de leur disponibilité, une grande partie de la recherche restant confidentielle) et l’identification des dangers et ainsi que sur une évaluation et des propositions de gestion des risques (spécifiques ou non aux NP).
      L'un de ces guides, québécois, reconnait le besoin de trouver «un équilibre entre la recherche d’opportunité de gains et l’atténuation des pertes ». Il promeut une gestion du risque comme « procédé itératif à effectuer dans une certaine séquence logique et qui permet des améliorations continues dans la prise de décisions tout en facilitant l’accroissement constant de la performance» :
    1. Évaluation du risque - est le procédé par lequel on estime ou on calcule le risque. Dans des conditions idéales, cela suppose une bonne connaissance de l’identité du danger et des niveaux d’exposition ou d’empoussièrement aux divers postes de travail, par exemple ;
    1.1 Analyse du risques relatifs aux NP nécessite de documenter le type de NP manipulées et leur toxicité, les niveaux potentiels d’exposition ainsi que des risques pour la sécurité aux différents postes de travail et pour toutes les tâches. Une démarche structurée est proposée dans un guide de bonnes pratiques favorisant la gestion des risques reliés aux nanoparticules de synthèse publié par l’Institut de recherche Robert-Sauvé en santé et en sécurité du travail.

    • Une plateforme interactive sur les nanotechnologies, nommée GoodNanoGuide, est également proposée aux chercheurs et aux travailleurs et employeurs du secteur. Alimentée par des experts, son contenu est disponible sur l’Internet.

    _________________________​
    Nom de la page : Nanoparticule
    Les textes sont disponibles sous
    _________________________


     
  3. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Nano-informatique


    La nano-informatique est un néologisme qui introduit les nouvelles architectures des systèmes informatiques et de l'électronique numérique. Fondés sur la technologie du silicium ou sur des alternatives radicales, ils ont pour particularité d'exploiter (pour tout ou partie) les molécules elles-mêmes comme éléments de base des futurs ordinateurs. Pour des raisons autant économiques que techniques, on considère leur développement comme inéluctable.

    Fatalité de la loi de Moore


    Les semi-conducteurs ont soutenu les progrès des ordinateurs au cours des 50 dernières années. Un demi-siècle durant lequel les circuits intégrés n’ont cessé de voir leur puissance s’accroître. Mais ces performances finiront inéluctablement par atteindre leurs limites physiques. Quelles seront alors les nouvelles voies de développement pour des systèmes toujours plus puissants, toujours plus présents ?
    L’essentiel de cette question réside dans la fatalité de la loi de Moore et la transition de la microélectronique aux nanotechnologies.

    Les semi-conducteurs ont favorisé les progrès des ordinateurs au cours du demi-siècle passé. D’ici 10 à 12 ans (i.e. avant 2020), cette technologie matérielle aura évolué jusqu’à ses limites physiques. Alors, soit nos machines auront définitivement atteint leur puissance asymptotique et les seuls progrès futurs seront liés à l’innovation applicative, c'est dire les seuls progrès des logiciels et de la manière d'utiliser une technologie donnée (c’est le scénario pessimiste), soit il existera une technologie de substitution, radicale, qui autorisera à nouveau une progression conjointe des performances du matériel et des applications.

    La nano-informatique est un domaine interdisciplinaire très vaste qui regroupe des technologies diverses, complémentaires ou concurrentes telles que l’utilisation des nanotubes dans les transistors moléculaires, l’informatique ADN (Ordinateur à ADN), les systèmes d’information quantiques (cf. calcul quantique),... L'usage industriel du vocable « nano-informatique » à coutume de couvrir également les procédés de fabrication de l’industrie électronique et informatique du XXI[SUP]e[/SUP] siècle : laser nanoseconde, laser femtoseconde, laser attoseconde.

    La nano-informatique introduit une transformation majeure dans le monde de l’entreprise et de la vie quotidienne (comme l'a fait en son temps l'informatique transactionnelle et le PC) : impact sur les activités de codage et de mise en œuvre des systèmes dans l'entreprise, opportunités économiques, mutation des métiers, etc.


    Des composants nanométriques à l’auto-organisation de systèmes moléculaires complexes


    Les premiers composants nanométriques (c'est-à-dire à l’échelle de la molécule, là où opèrent les phénomènes quantiques) ont déjà vu le jour dans nos laboratoires. Conscients du caractère absolument vital de cette technologie, les grands opérateurs de la filière du silicium (Intel, IBM,...) figurent parmi les grands pionniers du domaine. Ils explorent notamment les filières des nanotubes de carbone.

    Mais ce qui est réalisable sur les bancs d’essais des laboratoires à l’échelle unitaire, est encore loin d’être applicable dans le cadre de circuits complexes et encore moins, dans la perspective d’une production industrielle. La principale raison est la difficulté d’intégration de plusieurs centaines de millions de ces dispositifs au sein d’une même puce, à l’instar de nos microprocesseurs actuels (rappelons qu’à l’horizon 2015, ce sont 15 milliards de transistors qu’il conviendra alors d’intégrer sur une même puce).

    La nanotechnologie au sens historique du terme, ne consiste pas simplement à réaliser des objets aux dimensions moléculaires. L’idée fondamentale emprunte aux sciences du vivant le principe de l’auto-organisation en systèmes complexes. C'est-à-dire des briques élémentaires qui en fonction de la destination du dispositif, sont capables de s’assembler d’elles-mêmes sous la forme d’un dispositif plus complexe à partir d’une simple consigne macroscopique externe. C’est là le principal défi et la source des débats polémiques qui alimentent la scène scientifique et technique à ce jour.

    Puisque la nature peut construire de telles machines et que la biologie moléculaire et le génie génétique ont déjà exploré ces principes, une autre voie s’ouvre également pour les ordinateurs du futur : celle de l’électronique moléculaire organique qui exploite un matériau vivant tel qu’une protéine par exemple, et la réutilise dans un environnement artificiel, pour assurer une fonction de calcul ou une fonction de mémoire par exemple.

    - Transistor FET à nanotubes de carbone (CNFET)
    Le transistor à effet de champ à nanotube (CNFET ou « Carbon Nanotube Field Effect Transistor ») utilise un nanotube de type semi-conducteur en tant que canal, à travers lequel les électrons peuvent circuler d’une manière contrôlée, selon que l’on applique ou non, une différence de potentiel sur une troisième électrode.

    Le courant de commande appliquée sur l’électrode gate permet par exemple, de faire varier la conductivité du canal source-drain par un facteur million et même plus, tel que le fait un transistor FET conventionnel issu de la filière silicium.

    - Circuits électroniques mono-moléculaires hybrides
    Ces dispositifs n'utilisent qu'une seule molécule ou un nombre très faible par composant. Il s’agit d'un procédé hybride, car le circuit électronique est réalisé en interconnectant des composants moléculaires élémentaires (c’est-à-dire des « équivalent-transistors », chacun réalisé avec une molécule unique) par de minuscules brins conducteurs métalliques.

    - Électronique moléculaire organique
    Cette approche utilise les propriétés d’un matériau vivant où des molécules biologiques sont extraites de leur contexte naturel et sont ré-utilisées dans un environnement étranger pour en faire une utilisation artificielle différente. On utilise donc un matériau vivant à des fins totalement « non-biologiques ».

    L'élaboration de nouveaux dispositifs de stockage capables de stocker plusieurs dizaines de téraoctets dans de minuscules cubes de quelques cm[SUP]3[/SUP] (datacubes), sont l'une des applications pionnières de cette filière. Exploitant les propriétés de la bactériorhodopsine, une protéine sensible à la lumière, située dans la membrane des halobactéries. Elle est capable de convertir de l'énergie lumineuse en énergie chimique, plus précisément de transloquer un proton après avoir reçu un photon (pompe à protons). Cette activité repose sur une transition entre l'état d'origine et un état intermédiaire due à l'excitation par un photon. Après l'excitation, la protéine ne se maintient que pendant un certain laps de temps dans l'état intermédiaire, avant de revenir à son état d'origine. Mais, par mutagenèse dirigée, on peut synthétiser une version nouvelle de la bactériorhodopsine conservant l'état intermédiaire, au lieu de revenir spontanément à son état d'origine.
    La bactériorhodopsine intéresse ainsi l'industrie du stockage de données, dans la mesure où elle pourrait servir d'unité de stockage d'information binaire extrêmement miniaturisée pilotable par des impulsions lumineuses (à raison d'un bit par molécule, un disque de 12 centimètres de diamètre pourrait contenir de 20 à 50 To).

    Nano-informatique et Intelligence Ambiante


    L’ordinateur de la décennie à venir est donc en pleine mutation. Les nouveaux processeurs hérités de la génération conventionnelle des semi-conducteurs, vont progressivement croiser des architectures empruntées aux technologies organiques ou équipées des premiers composants moléculaires. Les mémoires vont suivre la même voie de miniaturisation à l’échelle moléculaire. Les dispositifs de stockage de masse vont désormais stocker en trois dimensions (dans des protéines ou dans des cristaux) ce qu’ils stockaient jusque là en deux dimensions à la surface d’un disque optique ou magnétique. Mais ces disques magnétiques, tout comme les composants au silicium, continuent pourtant à se perfectionner en exploitant les phénomènes quantiques.

    La roadmap de l'ordinateur des années 2005 à 2020
    - adaptated from J.-B. Waldner, Nano-informatique et intelligence ambiante,
    Hermès Science, London, 2007


    [​IMG]
    Description : Évolution des technologies de l'ordinateur entre 2005 à 2020.
    Cette évolution s’articule autour de cinq blocs fonctionnels :
    le processeur, la mémoire et les dispositifs de stockage de masse,
    les réseaux et télécommunications, les dispositifs d’alimentation en énergie (notions de mobilité
    ou plus encore d’informatique diffuse obligent)
    et les interfaces entre la machine et l’utilisateur ou la machine et le milieu.
    Date: 2007
    Source: Own work (adaptated from J.-B. Waldner, Nano-informatique et intelligence ambiante,
    Hermès Science, London, 2007.
    Originally from fr.wikipedia; description page is/was here.
    Auteur: User:Jbw at fr.wikipedia (= Jean-Baptiste Waldner)
    Ce fichier est disponible selon les termes de la
    licence Creative Commons Paternité – Partage des conditions initiales à l’identique 2.5 générique

    ______________________________________

    La mobilité a introduit un autre besoin : celui de l’autonomie énergétique. Les batteries chimiques se font plates comme une feuille de papier, légères et toujours plus puissantes. La nouvelle génération d’objets ambiants et communicants explore de nouvelles approches : des alimentations utilisant les molécules d'ATP comme les êtres vivants, des micromoteurs à combustion, ou encore des microbatteries nucléaires bien éloignées de nos piles conventionnelles.

    Ces micro-objets ambiants, diffusés au plus profond du monde réel sont capables de communiquer entre eux et avec les utilisateurs de la manière la plus naturelle. Cela veut dire que les interfaces entre les utilisateurs et la machine ne sont plus limités à nos simples claviers, souris et écrans, mais utilisent désormais nos cinq sens. Certaines interfaces s’affranchissent même de passer par ces sens, puisque les systèmes neuraux ou le contrôle télépathique sont déjà une réalité. Ce n'est pas l'œil qui voit, c'est le cerveau !

    Le vaste réseau d’objets minuscules et hétérogènes que constitue la nouvelle génération de systèmes distribués capillaires (l'Intelligence Ambiante ou les réseaux d'objets ambiants), impose une nouvelle vision du logiciel. Les métiers de l’informatique doivent s’adapter. Le développement et la maintenance des applications ne se bornent plus à un ensemble fini de programmes aux durées de vie importantes, mais doit prendre en compte un vaste périmètre de microsystèmes interagissant les uns sur les autres, d’une incroyable diversité et dans un contexte où, comme dans le monde vivant une fois encore, l’instabilité et l’évolution sont la règle.


    _________________________________
    Nom de la page : Nano-informatique
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Nano-informatique de Wikipédia en français (auteurs)
    Les textes sont disponibles sous licence Creative Commons paternité partage à l’identique

     
  4. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Intelligence ambiante


    L'intelligence ambiante est ce que pourrait devenir l'informatique dans la première moitié du XXI[SUP]e[/SUP] siècle en repoussant les limites technologiques qu'elle avait à la fin du XX[SUP]e[/SUP] siècle. Ce concept semble pouvoir tenir lieu de traduction non littérale aux concepts nés en Amérique du Nord sous le vocable initial d'informatique ubiquitaire, systèmes pervasifs ou encore ordinateur évanescent.

    Dans cette approche, le concept même de système d’information ou d'ordinateur change : d’une activité de traitement exclusivement centrée sur l’utilisateur, l'informatique devient interface entre objets communicants et personnes, et entre personnes.

    L'évolution des ordinateurs :
    la course à la minaturisation et à la diffusion dans le milieu ambiant
    - adaptated from J.-B. Waldner, Nano-informatique et intelligence ambiante,
    Hermes Science, 2007


    [​IMG]
    Description : Évolution des technologies de l'ordinateur entre 2005 à 2020.
    Cette évolution s’articule autour de cinq blocs fonctionnels :
    le processeur, la mémoire et les dispositifs de stockage de masse, les réseaux et télécommunications,
    les dispositifs d’alimentation en énergie (notions de mobilité ou plus encore d’informatique diffuse obligent)
    et les interfaces entre la machine et l’utilisateur ou la machine et le milieu.
    Date: 2007
    Source: Own work (adaptated from J.-B. Waldner, Nano-informatique et intelligence ambiante,
    Hermès Science, London, 2007. Originally from fr.wikipedia;
    description page is/was here.
    Auteur: User:Jbw (= Jean-Baptiste Waldner)
    Ce fichier est disponible selon les termes de la
    licence Creative Commons Paternité – Partage des conditions initiales à l’identique 2.5 générique

    _____________________________________

    Facteurs en jeu


    L'évolution technologique permet de fabriquer des ordinateurs et composants informatiques minuscules, des capteurs et senseurs qui pourront être omniprésents (nano-informatique) et communiquer entre eux et avec différents réseaux. Elle ouvre à presque tous les objets de la vie courante, la capacité à déclencher un échange spontané d'informations, sans interaction avec leur utilisateur.

    Les concepts informatiques évoluent vers des systèmes complexes en réseaux, fondamentalement différents des systèmes informatiques du XX[SUP]e[/SUP] siècle et de la notion d’ordinateur (disque dur, mémoire vive, interface par clavier, écran et souris, etc.) qui lui était couramment rattachée.

    Ces nouveaux concepts pourraient induire de profonds changements dans le monde social, culturel et de l'entreprise et s'introduire dans la vie quotidienne. De nombreux prospectivistes pensent qu'une évolution inéluctable des modes de vie est entamée, ainsi qu'une évolution capitale des activités et métiers informatiques.

    Vers une informatique diffuse


    L'Internet a consacré l’avènement des réseaux planétaires conventionnels, mais une prochaine mutation semble pouvoir favoriser le développement de l'intelligence ambiante par une informatique diffuse, qui déjà se prépare sur différents terrains :

    • celui des réseaux d’objets (voir aussi Internet des objets) sans fil et à très grande échelle ; ces nouveaux réseaux s'affranchissent de la chaîne d’antennes fixes ; ils constituent un réseau planétaire dont les nœuds actifs ou antennes seraient constitués par les terminaux eux-mêmes (c'est-à-dire les objets communicants) ; ces systèmes de télécommunication seraient capables de s'autogérer (un principe analogue à celui du poste-à-poste, parfaitement adapté à la mise en œuvre d'un réseau très capillaire où les objets communicants seront devenus omniprésents) ;
    • l'Internet des réseaux sociaux ;
    • le calcul distribué ;
    • les objets communicants, voire apprenants.

    Les composants élémentaires de l'intelligence ambiante


    L'intelligence ambiante met en œuvre quatre éléments de base :

    • L'ubiquité : la capacité pour l'utilisateur d'interagir (activement ou passivement), n'importe où, avec une multitude d'appareils interconnectés, de capteurs, d'activateurs, et plus globalement avec les systèmes électroniques embarqués (embedded software) autour de lui. Tout cela à travers des réseaux adaptés et une architecture informatique très distribuée.


    • L'interaction naturelle : l'accès aux services doit pouvoir se faire de la façon la plus naturelle / intuitive possible. À la différence de l'interface traditionnelle de l'univers informatique (dénommée WIMP, Windows, Icons, Menus and Pointing device, (fenêtres, icônes, menus et dispositif de pointage), l'interface personne-machine est multimodale. Elle s'articule autour de la reconnaissance vocale, de la reconnaissance gestuelle et la manipulation d'objets réels.


    Perspectives économiques


    L'intelligence ambiante ouvre des perspectives de marchés nouveaux pour des entreprises ou États qui (via des clusters économiques ou pôles de compétences par exemple) cherchent à renforcer leur position dans certains domaines tels que les communications mobiles, l'électronique grand public, les logiciels enfouis (embedded software) ou la microélectronique.

    Dans le même temps, l'informatique diffuse pourrait favoriser de nouvelles logiques collaboratives hors des logiques commerciales classiques, voire des phénomènes émergents imprévisibles.


    L'Europe mise sur l'intelligence ambiante à l'horizon 2010


    Plus de 7 milliards d'Euros sont consacrés au Programme-cadre pour la recherche et le développement technologique et financés pour moitié par l'Union européenne et dévolus aux technologies de l'information. C'est la composante du 6[SUP]e[/SUP] PCRD (Programme-cadre de recherche et développement européen pour la période 2002-2006). Ces programmes regroupent des thèmes aussi variés que la nanoélectronique, les microsystèmes, les réseaux sans fil, Internet large bande, des capteurs et systèmes de capteurs innovants ou encore des méthodes de calcul distribué.

    Ces recherches ont en commun de participer au développement à long terme d'une vision ou d'un concept dit intelligence ambiante.


    Limites et questions éthiques et philosophiques


    Ces capacités nouvelles posent de nombreuses questions :




    _______________________________

    Nom de la page
    : Intelligence ambiante
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Intelligence ambiante de Wikipédia en français (auteurs)
    Les textes sont disponibles sous licence Creative Commons paternité partage à l’identique

     
  5. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113



    Internet des objets



    L'Internet des objets représente l'extension d'Internet à des choses et à des lieux dans le monde physique. Alors qu'Internet ne se prolonge habituellement pas au-delà du monde électronique, l'internet des objets (IdO) a pour but de l'étendre au monde réel en associant des étiquettes munies de codes, de puces RFID ou d'URLs aux objets ou aux lieux. Ces étiquettes pourront être lues par des dispositifs mobiles sans fil, ce qui devrait favoriser l’émergence de la réalité augmentée.

    Définition de l'internet des objets

    Il n’existe pas de définition standard et partagée de l’IdO.
    Certaines définitions insistent sur les aspects techniques de l’IdO («des objets ayant des identités et des personnalités virtuelles, opérant dans des espaces intelligents et utilisant des interfaces intelligentes pour se connecter et communiquer au sein de contextes d’usages variés»), d’autres portent sur les usages et les fonctionnalités («la convergence des identifiants numériques») notant qu’il devient possible d'identifier de manière unifiée des éléments d'information numérique (adresses) et des éléments physiques (une palette dans un entrepôt, ou un animal dans un troupeau).

    Il est parfois suggéré que l'objet deviendra un acteur autonome de l'Internet, c'est-à-dire capable de percevoir, analyser et agir par lui-même dans les contextes des processus dans lesquels il sera engagé. Dans ce cas de figure, l'avènement de l'Internet des objets s'associe à celui des technologies ou méthodes de conception logicielle liées à l'Intelligence artificielle et des sciences de la Complexité. Le couple "objet physique" / "Intelligence virtuelle associée", qu'elle soit embarquée, distribuée ou hébergée dans le Cloud (Cloud com*****g) y est alors mentionné sous l’appellation "cyberobjet". Les cyberobjets sont des acteurs potentiels des chaines de valeurs qui agissent sous le contrôle des opérationnels ou en partenariat avec eux. En accédant ainsi au statut d’assistants, de conseillers, de décideurs ou encore d’organisateurs (selon les cas), ils deviennent de véritables agents économiques et contribuent à la mutation des modèles économiques ou de gestion existants.

    Une définition plus synthétique est la suivante : l’IdO est «un réseau de réseaux qui permet, via des systèmes d’identification électronique normalisés et unifiés, et des dispositifs mobiles sans fil, d'identifier directement et sans ambiguïté des entités numériques et des objets physiques et ainsi de pouvoir récupérer, stocker, transférer et traiter, sans discontinuité entre les mondes physiques et virtuels, les données s’y rattachant».


    Composants système


    L’IdO n’est pas une technologie mais un système de systèmes. L’interopérabilité entre ces systèmes et l’intégration de tous les composants induisent une complexité forte. La capacité à gérer les interfaces est donc déterminante. Voici les principaux systèmes technologiques nécessaires au fonctionnement de l’IdO

    [TABLE="class: MsoNormalTable"]
    [TR]
    [TD]
    Type de
    systèmes
    [/TD]
    [TD] Identification[/TD]
    [TD]
    Capteurs
    [/TD]
    [TD]
    Connexion
    [/TD]
    [TD]
    Intégration
    [/TD]
    [TD] Traitement
    de données[/TD]
    [TD]
    Réseaux
    [/TD]
    [/TR]
    [TR]
    [TD="width: 116"] Enjeux[/TD]
    [TD] Reconnaître chaque objet de façon unique et recueillir les données stockées au niveau de l’objet.[/TD]
    [TD] Recueillir des informations présentes dans l’environnement pour enrichir les fonctionnalités du dispositif.[/TD]
    [TD] Connecter les systèmes entre eux.[/TD]
    [TD] Intégrer les systèmes pour que les données soient transmises d’une couche à l’autre.[/TD]
    [TD] Stocker et analyser les données pour lancer des actions ou pour aider à la prise de décisions.[/TD]
    [TD] Transférer les données dans les mondes physiques et virtuels.[/TD]
    [/TR]
    [TR]
    [TD="width: 116"] Technologies
    anciennes[/TD]
    [TD] Codes barre, solutions RFID simples, URI, Coordonnées GPS[/TD]
    [TD] Thermomètre, hydromètre…[/TD]
    [TD] Câbles, …[/TD]
    [TD] Middlewares…[/TD]
    [TD] Base de données, tableur, Progiciel de gestion intégré, Gestion de la relation client…[/TD]
    [TD] Internet,
    Ethernet…[/TD]
    [/TR]
    [TR]
    [TD="width: 116"] Technologies
    récentes[/TD]
    [TD] Solutions RFID complexes, Onde acoustique de surface, puces optiques, ADN[/TD]
    [TD] Capteurs miniaturisés nanotechnologies[/TD]
    [TD] Bluetooth, Communication en champ proche, WiFi, Zigbee ...[/TD]
    [TD] Middlewares évolués, Analyse décisionnelle des systèmes complexes[/TD]
    [TD] Entrepôt de données 3D (compatible avec les puces RFID), Web sémantique…[/TD]
    [TD] Réseau
    EPCglobal…[/TD]
    [/TR]
    [/TABLE]

    Lier un objet ou un lieu à Internet est un processus plus complexe que la liaison de deux pages Web. L'Internet des objets exige sept composants :

    1. Une étiquette physique ou virtuelle pour identifier les objets et les lieux. Quelques systèmes d'étiquetage sont décrits ci-dessous. Pour permettre aux étiquettes physiques plus petites d'être localisées elles doivent être embarquées dans des marqueurs visuels.
    2. Un moyen de lire les étiquettes physiques, ou de localiser les étiquettes virtuelles.
    3. Un dispositif mobile tel qu'un téléphone cellulaire, un organizer ou un ordinateur portable.
    4. Un logiciel additionnel pour le dispositif mobile.
    5. Un réseau sans fil de type 2G ou 3G afin de permettre la communication entre le dispositif portable et le serveur contenant l'information liée à l'objet étiqueté.
    6. L'information sur chaque objet lié. Cette information peut être contenue dans les pages existantes de WWW, les bases de données comportant des informations de type prix, etc.
    7. Un affichage pour regarder l'information sur l'objet lié. À l'heure actuelle, il est des plus probable que ce soit l'écran d'un téléphone mobile.

    - Étiquettes et systèmes de lecture d'étiquettes

    Il y a un certain nombre de systèmes d'étiquetage différents en compétition.

    Parfois désigné par l'anglicisme RFID, ce dispositif d'identification de radiofréquence est un petit transpondeur qui peut être lu à courte distance par un émetteur récepteur (lecteur). Comme les radio-étiquettes peuvent être très petites, elles sont souvent encapsulées dans un marqueur plus visible pour leur permettre d'être localisées.
    Un lecteur de radio-étiquettes peut être ajouté à un téléphone mobile existant en tant que coque. Nokia produit ce type de coque pour ses téléphones portables 3220. À l'heure actuelle, peu de mobiles offrent des fonctionnalités de radio-identification, mais ceci peut changer puisque de tels mobiles peuvent être employés pour des paiements sans argent liquide et d'autres buts.


    Depuis 2005, les voyageurs dans la ville de Hanau, près de Francfort en Allemagne peuvent payer les billets d'autobus en passant leurs téléphones Nokia au-dessus d'un lecteur adéquat installé dans les autobus. D'autres applications pour mobiles incluent l'échange de cartes de visite professionnelles électroniques entre les téléphones, ou l'utilisation d'un téléphone mobile pour s'enregistrer à l'aéroport ou à l'hôtel.

    Étiquettes graphiques

    Une étiquette graphique se compose d'une image sur un marqueur, qui peut être lu par un appareil-photo de téléphone mobile. Il y a nombre de systèmes en concurrence, comme les Semacodes, les QR codes, ShotCodes et les codes barres. La conception de tels codes doit être assez riche pour inclure un bon nombre d'information et assez robuste pour que l'étiquette soit lisible, même lorsqu'elle est en partie obscurcie ou endommagée : les étiquettes pourraient être sur l'extérieur des bâtiments et exposées à l'usure et au temps.
    Les étiquettes graphiques ont un certain nombre d'avantages. Elles sont faciles à comprendre et bon marché à produire. Elles peuvent également être imprimées sur presque n'importe quoi, y compris des t-shirts. Les codes barres sont une forme particulièrement attrayante d'étiquetage parce qu'ils sont déjà très employés couramment, et les appareils-photo des téléphones peuvent facilement les lire.

    Étiquettes de type SMS

    Une étiquette de type SMS comporte un code alphanumérique court, qui peut être imprimé sur un marqueur ou être marqué à la craie sur un mur. Le service de message court (SMS) est alors employé pour envoyer le code et pour renvoyer un message.

    Étiquettes virtuelles
    Dans un système d’étiquetage virtuel, il n'y a aucune étiquette physique à un lieu donné. Au lieu de cela, une URL est associée à un ensemble de coordonnées géographiques. Quand un téléphone portable équipé par GPS entre dans un secteur particulier, le téléphone peut être utilisé pour retrouver toutes les URL associées à ce secteur. Le secteur peut être délimité sur quelques mètres ou représenter un secteur beaucoup plus large. Actuellement, peu de mobiles offrent des fonctionnalités de type GPS et le GPS n'est pas précis dans des secteurs urbains. L'exactitude du GPS pourrait s'améliorer lorsque le système de positionnement de l'Union européenne "Galileo" deviendra opérationnel en 2014.


    Applications de l'Internet des objets


    Les applications de l'Internet des objets décrites ci-dessus permettront de lier de l'information complète et éditable à n'importe quel objet ou lieu. Mais quant à savoir comment ces possibilités peuvent être utilisées au mieux, cela reste à définir. Ce qui a émergé jusqu'ici est un mélange d'applications sociales et commerciales.

    • Les éditeurs des guides Lonely Planet distribuent des flèches jaunes avec un de leurs guides et encouragent les voyageurs à laisser des étiquettes de leurs histoires et commentaires partout où ils vont.
    • Siemens voit son système d'étiquetage virtuel être utilisé pour étiqueter les emplacements touristiques, et ainsi laisser des messages pour des amis. Siemens propose également que des étiquettes virtuelles puissent être employées pour lier des annonces (par exemple publicitaires) avec des lieux. Geominder offre également un service d'étiquetage virtuel.
    • Nokia a démontré que lorsqu'un téléphone Nokia 3220 avec la coque RFID est branché à une publicité de type RFID, une URL peut être lue et des informations sur le produit ou le service annoncé sont retournées au téléphone.
    • Des applications permettent de lire le code barre d'un produit avec un téléphone mobile, lequel télécharge ensuite les prix qui y sont associés sur internet afin de les comparer.
    • Semapedia a créé un système pour lier les objets physiques et les articles de Wikipédia en utilisant le schéma d'étiquetage Semacode. On peut créer des étiquettes graphiques qui instaurent des liens sur les URLs des différents articles de Wikipédia. Ces étiquettes peuvent alors être attachées aux objets physiques mentionnés dans les articles de Wikipédia. La lecture d'une étiquette avec l'appareil-photo d'un téléphone mobile permettra alors de retrouver un article de Wikipédia et le montrera sur l'écran de téléphone.
    • Une alternative à l'utilisation des codes barres 2D est d'appliquer des techniques de vision d'ordinateur pour identifier des modèles et des images plus complexes. Des compagnies comme Daem développent des plateformes d'identification d'image pour transformer n'importe quelle image en hyperliens.
    • NeoMedia Technologies offre Qode, un système breveté pour lier le monde physique au monde électronique. Avec Qode, des objets de la vie de tous les jours peuvent être employés comme hyperliens dans le World Wide Web. Le système Qode permet d'associer aux adresses Web (URLs) des Machine Readable Identifiers (MRI), même aux sous-pages des sites Web. En conséquence, Qode permet l'approche "one click to content".
    • Violet conçoit et commercialise Nabaztag:tag, un appareil autonome permettant de lier des objets possédant une puce RFID à des actions.

    Standardisation

    Normes et standards

    Le succès d'internet repose sur l'adoption généralisée de protocoles de communication clairement définis (TCP/IP, SMTP, HTTP, etc.). L'ensemble de ces protocoles représente un langage commun à tous les systèmes connectés, quels que soient leur marque, leur système d'exploitation ou les outils logiciels utilisés. En l'absence d'un tel langage commun, l'internet se réduirait à un patchwork de réseaux propriétaires et incompatible, chacun dédié soit à une application particulière, soit à un groupe d'utilisateurs donnés.

    En l'absence de protocoles et de standards universels, le développement de l'internet des objets présente le même risque de balkanisation. En fait, l'existence même du concept d'internet des objets ("internet" dans son sens littéral, "entre réseaux") dépend d'une volonté de standardisation de la communication entre objets. Même si certains systèmes s'affichent dès aujourd'hui comme parties ou précurseurs de l'internet des objets, ce terme ne pourra être légitimement utilisé que lorsque chacun de ces systèmes sera en mesure de communiquer avec tous les autres sur la base de protocoles communs.

    Codes-barre, EAN

    Dans l'industrie, les entreprises pionnières en matière de technologie RFID se sont heurtées à ce problème dès les années 1990. L'utilisation de marqueurs RFID a rapidement mené au succès de nombreuses applications propriétaires. Tant que ces applications ne concernent que les processus internes d'une entreprise (boucle fermée; systèmes de production, par exemple), il n'y a pas de problème. Mais dès le moment où une interaction entre différents partenaires commerciaux est envisagée (boucle ouverte; fournisseurs, clients, autorités, etc.), la compatibilité entre les différents systèmes doit être assurée. Et dans le cas général d'une chaîne d'approvisionnement complète (supply-chain) – où les produits passent par de nombreuses étapes de production, de stockage, de transport et de transformation – la mise en œuvre de standards devient indispensable.

    Dans le milieu de la grande distribution, un standard s'est imposé depuis les années 1970 pour l'identification des produits : le code code EAN (European Article Numbering). Il s'agit du code-barre que l'on trouve de nos jours sur la grande majorité des produits de consommation courante, et dont l'utilisation à la caisse des supermarchés est tellement naturelle qu'on ne la remarque quasiment plus. Un code EAN ne permet toutefois d'identifier qu'une classe de produits (p.e., "un paquet de chewing-gum Wrigley" : tous les paquets portent le même code) et non les instances individuelles de cette classe (p.e., "le paquet de chewing-gum Wrigley n° 42": chaque paquet porte un code individuel unique qui le distingue de tous les autres). Or, une telle distinction au niveau individuel est indispensable à l'émergence de l'internet des objets, de même que l'attribution d'une adresse IP unique propre à chaque connexion est indispensable au fonctionnement de l'internet tel que nous le connaissons aujourd'hui.

    Le système EPC

    Partant de cette constatation, les organismes EAN International et UCC (Uniform Code Council) – chargés de la gestion du système EAN et aujourd'hui réunis au sein de l'organisme global GS1 – ont choisi le système EPC (Electronic Product Code) développé par l'Auto-ID Center (aujourd'hui Auto-ID Labs) comme base pour leur nouvelle génération de standards. L'organisation EPCglobal, Inc., crée par GS1, est chargée du développement et de la gestion de ces nouvelles normes.

    Le système EPC est souvent considéré comme directement lié à la technologie RFID. En effet, la standardisation d'un système d'identification au niveau de l'article individuel s'est avérée indispensable dans ce domaine, et la pression de géants tels que la chaîne de supermarchés américains WalMart ou le Département de la Défense des États-Unis a permis une progression rapide des processus de développement et d'adoption des nouveaux standards. Néanmoins, le code EPC n'est au fond qu'une suite de bits organisés selon une systématique précise et n'est donc pas limité au domaine de la RFID. Il peut aisément prendre la forme d'un code-barre standard ou bidimensionnel (p.e., Data Matrix ou QR Code), ou simplement d'une suite de caractères numériques.

    EPC pour l'internet des objets

    Le système EPC possède donc toutes les caractéristiques nécessaires pour servir de langage de base commun à l'internet des objets: une identification individuelle et unique des objets, associée à la large diffusion d'un système standardisé. À ceci s'ajoute encore l'architecture EPCglobal Network, qui définit l'organisation des systèmes d'informations destinés à assurer l'échange des informations EPC au niveau global et dont l'un des composants principaux, l'ONS (Object Naming Service), est directement basé sur le DNS (Domain Name System), élément essentiel de l'infrastructure de l'internet actuel.

    L'utilisation du système EPC dans le cadre de l'internet des objets n'est toutefois pas entièrement exempte de problèmes. La nature commerciale du système EPCglobal en est un (l'attribution d'une plage de codes est payante), et le fait qu'une grande partie de l'architecture EPCglobal Network ne soit encore qu'à l'état d'ébauche en est un autre.
    Il ne fait toutefois aucun doute que le système EPC occupe une place de choix dans la perspective du développement de l'internet des objets, soit en tant que composant à part entière, soit comme source d'inspiration.

    Au-delà des standards

    Au-delà des standards existants, l'Internet des Objets peut être compris comme un cyberespace « indéterministe et ouvert » dans lequel évoluent des objets logiciels virtuels autonomes associés aux objets physiques inertes et s'alimentant des données évènementielles (RFID, Code-barres, NFC, etc). Les nouvelles possibilités offertes par les services de mobilité via la technologie NFC sur les téléphones portables devraient permettre le développement à grande échelle de l'Internet des Objets, avec des initiatives comme celle de Cityzi en France, où le mobile et ses applications virtuelles seront en interaction directe avec son environnement physique et permettront ainsi d'en obtenir des informations utiles connexes (musée, transport, commerçant etc).

    Ces entités autonomes dotées d’une intelligence propre sont capables de s’auto-organiser en fonction des circonstances, des contextes ou des environnements. Cette intelligence leur permet de partager avec des tiers (entités, objets) afin de faire converger leurs finalités (à ce titre, le concept d'Internet des Objets est très proche de celui d'Intelligence ambiante).

    Ainsi, avec l'Internet des Objets, l'objet physique devient - par le biais de son intelligence logicielle associée - un véritable acteur ou Agent économique dans les chaines de valeur ou les processus dans lesquels il est engagé, au même titre que le sont les humains, les organisations ou certains systèmes d'information.
    Cet Internet est par essence évènementiel, il se fait notamment « par le bas », c’est-à-dire selon des approches «bottom-up» basées sur l’événement et permettant un pilotage opérationnel à des niveaux subsidiaires.

    Chaque acteur y dispose, potentiellement, de son propre référentiel (nommage, sémantique, temps) lui assurant une autonomie de décision et de comportement.
    En outre, la variété et la multiplicité des liens ou interactions entre ces acteurs en font un système complexe, capable d’intégrer de nouveaux acteurs autonomes de façon «transparente».

    Dans cet Internet, l’interprétation d’un événement n'est pas nécessairement soumis à une logique déterministe et syntaxique mais se fait de façon contextuelle : ce Web devra donc être sémantique. Par conséquent, cette interprétation doit, dans beaucoup de cas, s’affranchir de référentiels trop «généralistes» qui, par nature, ne savent pas gérer les milliards d’exceptions qui seront potentiellement générés : la standardisation EPCglobal, entre autres, trouve ici ses limites. En effet, vouloir adresser tous les cas possibles revient à définir une "finalité" globale à grande échelle : cette tâche est impossible dans une démarche «top-down» (quel organisme pourra tout prévoir à l’avance ?).


    De la même façon, la dimension chronologique appréhendée de façon «linéaire» n’a plus aucun sens dans un tel écosystème globalisé où des milliards d’évènements de natures diverses se produisent au même moment et en parallèle : l’internet des objets nécessitera donc le développement et l’usage de systèmes d’information "massivement" parallèles (voir Parallélisme (informatique)).



    _____________________________

    Nom de la page : Internet des objets
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Internet des objets de Wikipédia en français (auteurs)

     
  6. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Nanotoxicologie


    La nanotoxicologie est l'étude de la toxicité des nanomatériaux et des nanoparticules. Ces particules, d'une taille comprise entre 1 et 100 nanomètres (10[SUP]-9[/SUP] m), sont synthétisées par l'homme. Elles possèdent des propriétés uniques du fait de leur taille. L'étude de l'effet de ces nouvelles particules sur les systèmes vivants est l'objet de la nanotoxicologie.

    La connaissance dans ce domaine nouveau est encore en 2009 très lacunaire.

    • les nanoparticules peuvent pénétrer dans les poumons.
    Objectifs

    Les études nanotoxicologiques visent à :

    • améliorer les évaluations de risques et les analyses de cycle de vie (ACV) qui sont très difficiles à réaliser pour les produits intégrant des nanomatériaux, mais déjà sur le marché (ex textile intégrant du nano-argent)
    • améliorer la gestion du risque, notamment par la production d'outils, de règlementations et de guides de bonnes pratiques
    • déterminer si les nanomatériaux (ou certains d'entre eux) peuvent - et dans quelle mesure - constituer une menace pour l'environnement et pour les êtres humains, à court, moyen ou long terme.
    Domaines d'étude

    Tous les nanomatériaux sont concernés, avec des risques variant selon la taille du produit ou du mélange étudié (...et selon la quantité, la structure, la surface spécifique et réactivité de surface, la toxicité chimique, une éventuelle radioactivité, les capacités d'agrégation, la réactivité, son comportement dans l'eau ou l'air, la présence éventuelle d'un surfactant ou d'un solvant, etc.).

    Troit voies d'entrée sont aujourd'hui approchées, in vivo et surtout in vitro :

    Spécificité

    En raison de la petite taille (100 000 fois plus petit qu'une cellule humaine moyenne, 10 000 fois plus petit qu'une bactérie de taille moyenne, 150 fois plus petit qu'un virus, et pouvant interagir avec l'ADN car au moins deux fois plus petit que le diamètre d'une double hélice d'ADN) et de la grande surface fonctionnelle des nanomatériaux, ceux-ci ont des propriétés uniques par rapport à leurs homologues de plus grande taille. Même s'ils sont réalisés à partir d'éléments réputés inertes comme l'or ou le platine, ils deviennent très actifs à l'échelle nanométrique. Certains de ces matériaux se comportent comme des gaz et passent très facilement au travers des muqueuses et de la peau et de toutes les barrières (y compris méninges protégeant le cerveau, et placenta).

    Les nanotechnologies posent donc des problèmes nouveaux à la toxicologie et à l'écotoxicologie et au domaine de la sécurité alimentaire et sanitaire (les promoteurs des nanomatériaux annoncent des aliments plus beaux, plus frais, plus sains, plus fonctionnels ou des alicaments, éventuellement vendus dans des emballages qui pourraient être "améliorés" par des nanoadditifs. Une insuffisante perception des risques par le personnel qui utilise des nanomatériaux, parfois sans le savoir peut aussi être un facteur de danger et d'aggravation des risques.
    Par conséquent le principe de précaution devrait conduire tout développement des nanomatériaux dans l’alimentation ainsi que toute élaboration d’une quelconque règlementation. Le droit suisse recommande d’incorporer explicitement le principe de précaution dans le domaine des denrées alimentaires.

    Difficultés spécifiques

    La toxicologie des nanoproduits est confrontée à plusieurs difficultés. En particulier, elle doit travailler ;

    • sur des matériaux aux formes variées (à 2 ou 3 dimensions), ces formes induisant des propriétés variées (ex : nanotube de carbone, fullerène, points quantiques (aux propriétés optiques et électroniques très particulières) et des polymères nanométriques tels que les dendrimères et composites divers...) ; Certains nanoproduits sont chimiquement et thermiquement bien plus stables et résistants que leurs homologues micrométriques, meilleur conducteurs thermiques, ou dopant leurs capacités d’absorption moléculaire ou développant des propriétés métalliques ou semi-conductrices particulières, variant selon leurs modes de synthèse. Par exemple, des nanotubes de carbone peuvent être « plus de 60 fois plus résistants que l’acier tout en étant six fois plus légers».
    • dans l'urgence, car en 2007 dans le monde étaient déjà répertoriées plus de 500 produits nanotechnologiques commercialisés (pour un marché de 88 milliards de dollars supposé devant presque doubler en 2008)
    • dans un domaine où les connaissances sur les risques pour la santé et pour la sécurité sont rares et très lacunaires.
    • avec des technologies émergentes (par exemple la microscopie optique est inefficace à ces échelles) et des moyens de mesures qualitatives et quantitatives rares, coûteux. En 2009, aucun matériel ne peut à la fois mesurer le nombre de particules, leur surface spécifique, leur distribution granulométrique, et leur masse NP, ce qui serait nécessaire pour déterminer, si possible en temps réel, l’exposition réelle aux NP synthétisées
    • avec des experts qui sont souvent, comme dans le domaine émergent des OGM, juges et partie
    • en l'absence de réglementation spécifique (pas ou peu de normes, de seuils, de protocoles légaux d'évaluation, etc.
    • dans un secteur très concurrentiel où les brevets et secrets de fabrication, la confidentialité des usages ou recherches militaires freinent la recherche, l'échange de données et de bonnes pratiques, ce qui pose aussi des questions d'éthique environnementale.
    • avec des questions tout à fait nouvelles (par exemple sur l'impact de nano-objets conçus pour se déplacer ou comme nanomoteur, considérés jusque dans les années 1990 comme relevant de la science-fiction)
    Facteurs de toxicité

    Selon les études et données disponibles, de nombreux paramètres expliquent la toxicité des nanoparticules ceux qui sont souvent citées ou ont été le mieux étudiés sont :


    Travail collaboratif d'information et d'évaluation


    Des plates-formes de partage d'information ont été créées, avec les producteurs ou des agences gouvernementales. L'Europe soutient des programmes de recherche divers. Un début de travail collaboratif est amorcé avec l'utilisation de wiki, en anglais.
    Certains auteurs proposent d'utiliser les méthodes de control banding (qui utilise une matrice fonction de la sévérité et de la probabilité/vraisemblance du risque) pour évaluer quantitativement les risques des NP, malgré l'importance des incertitudes.


    Conditions


    Pour évaluer les risques et dangers, la nanotoxicologie nécessite d'avoir accès à des informations aujourd'hui lacunaires, dont

    • caractérisation des émissions de NP (évaluations quantitatives et qualitatives)
    • données sur la cinétique de ces produits dans les milieux et organismes
    • cadastres d'émissions
    • exposition des personnes (travailleurs notamment, et enfants qui pourraient y être plus vulnérables) aux aérosols, par classes de fraction granulométrique, etc.
    Exposition humaine

    L'Homme et d'autres espèces vivantes sont notamment exposés à des nanoparticules ayant comme source des phénomènes d'usure mécanique (freins et pneus par exemple), et de combustion (incinération, pots d'échappement y compris pots catalytiques, centrales thermiques, certaines productions industrielles...).

    Combustions de carburants et combustibles
    En particulier, des particules ultrafines associées «à une hausse de la mortalité due à leur dépôt dans les poumons, cerveau et système circulatoire» sont produites par la combustion du bois ou autres combustibles et carburants (fuel, essence, moteurs Diesel), etc. et même du gaz naturel ; Si ce dernier ne produit pas de suies de 10 et 100 nm, une étude un brûleur de chauffe-eau au gaz ou de gazinière produit des particules de 1 à 10 nanomètres (nm) de diamètre. Dans une chaudière à condensation leur taux est bas (0,1 milligramme par normo-mètre cube ou mg/Nm3) suite à leur oxydation optimisée dans la zone de la flamme, mais un brûleur de gazinière engendre des taux particulaires bien plus élevés (5 mg/Nm3) ainsi d'ailleurs qu'une «quantité significative» d’hydrocarbures aromatiques polycycliques qui pourraient peut-être interagir avec ces nanoparticules.

    Médicaments
    Des usages médicaux déjà prévus ou testés, permettant par exemple de créer des nanotransporteurs de molécules vers le cerveau pourraient aussi être porteurs de risques ou dangers nouveaux.

    Cosmétique

    Filtres solaires à base de dioxyde de titane
    Sous forme nanoparticulaire, le dioxyde de titane ne semble pénétrer que les couches supérieures de la peau, quand elle est saine. En revanche, à titre de précaution, il est déconseillé de les utiliser sur de la peau ayant subi des coups de soleil, et plus généralement sur de la peau lésée.

    Ce sont des nanoparticules enrobées et de ce fait, elles ne semblent pas être génotoxiques. Elles montrent malgré tout une toxicité pulmonaire, chez les rats. Par précaution, il est donc déconseillé de les utiliser en spray sur le visage ou dans des locaux fermés.





    ______________________

    Nom de la page : Nanotoxicologie
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Nanotoxicologie de Wikipédia en français (auteurs)
    Les textes sont disponibles sous licence Creative Commons paternité partage à l’identique

    ______________________


    Relatif : #2
     
  7. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113



    Nanotechnologie en ADN


    La nanotechnologie en ADN est la conception et fabrication de structures en acide nucléique artificiel en tant que composantes de structures naines au lieu des porteurs de gènes dans les cellules vivantes. L'ADN se prête à cette utilisation parce qu'elle respecte un strict appariement de ses bases azotées pour former de doubles hélices fortes et solides. Cette caractéristique permet une conception rationnelle de séquences de bases qui s'assembleront pour former des structures à l'échelle naine dotées des particularités visées. L'ADN est le matériau prédominant, mais on s'est servi d'autres acides nucléiques tels que le ARN et l'ANP (acide nucléique peptidique), d'où l'appellation possible de nanotechnologie en acide nucléique pour décrire ce domaine.

    Les fondations de la nanotechnologie en ADN furent établies par Nadrian Seeman au début des années 1980s, et le champ se mit à susciter un intérêt plus répandu depuis les années 2000. Les savants de ce créneau ont réussi à produire des structures fixes (comme des formes en deux et trois dimensions ou des fils conducteurs) en plus de structures fonctionnelles, comme des machines moléculaires ou des nanorobots. On emploie un nombre d'approches d'assemblage pour créer ces structures, y compris des formes faites à partir de tuiles plus petites, des formes brochées et des architectures non fixes reconfigurables (où les brins se déplacent). Le champ est en train de devenir un outil pour résoudre des problèmes des sciences fondamentales dans la biologie structurelle et la physique du vivant en plus d'applications dans la cristallographie et la spectroscopie pour reconnaître la structure des protéines. Des enquêtes sur son application dans l'électronique menue ou la nanomédecine sont en cours.

    La nanotechnologie en ADN s'intéresse à la conception de structures naines artificielles à partir d'acides nucléiques, telles que ce tétraèdre. Ici, chacun de ses bords est une double hélice d'ADN de 20 paires de base, et chaque tête est un raccordement de trois bras. Les quatre faces tétraédriques se colorent selon les quatre brins d'ADN qui les forment.

    Concepts fondamentaux

    Propriétés des acides nucléiques
    La nanotechnologie se définit comme l'étude de matériaux et appareils dont les composants sont à une échelle inférieure à 100nm. La nanotechnologie en ADN, en particulier, est un exemple d'un auto-assemblage moléculaire d'en bas, où les composants moléculaire s'organisent spontanément pour former des structures stables. Leur forme particulière est décidée par les propriétés des composants que sélectionnent les concepteurs. Dans ce domaine, les éléments sont des brins d'acides nucléiques, tels que l'ADN, qui conviennent bien à la construction naine étant donné qu'un double hélice d'acide nucléique a un diamètre de 2 nm et une intervalle de 3,5 nm. La propriété fondamentale qui rend les acides nucléiques plus adaptés que d'autres matériaux est que la liaison entre deux brins nucléiques dépend de règles d'appariement simples et bien compris. Ainsi, on peut maîtriser l'assemblage de ces structures grâce à un agencement pensé des acides nucléiques. Ce trait n'existe pas chez les autres matériaux utilisés dans la nanotechnologie, y compris les protéine (dont leur conception s'avère difficile) et les particules naines, incapables de s'assembler d'elles-mêmes.

    La structure d'une molécule d'acide nucléique se compose d'une suite de nucléotides, définis par la base azotée qu'ils contiennent. Les quatre bases de l'ADN sont l'adénine (A), la cytosine (C), la guanine (G) et la thymine (T). Les bases ne se lient qu'à une base complémentaire, c'est-à-dire A à T, et C à G. Parce que la formation de paires bien assorties est efficace sur le plan énergétique, on s'attend à l'assemblage des brins d'acide nucléique ayant le plus d'appariements corrects. Ainsi, la suite de bases des brins définit les liaisons et la structure d'ensemble d'une façon qu'on peut facilement maîtriser.

    Sous-domaines
    Il est possible de diviser ce domaine de la nanotechnologie en deux sous-domaines qui se chevauchent: la nanotechnologie en ADN structurelle et la nanotechnologie en ADN dynamique. La nanotechnologie en ADN structurelle (ADNS) se concentre sur la fabrication et la caractérisation de complexes et matériaux d'acide nucléique qui s'assembleront en un état équilibré et stable. De l'autre côté, la nanotechnologie en ADN dynamique (ADND) se penche sur des corps non-équilibrés disposés à se reconfigurer suite à un stimulant chimique ou physique. Certaines structures, telles que les appareils nains à but médical allient des traits des deux sous-domaines.


    _______________________________

    Nom de la page : Nanotechnologie en ADN
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Nanotechnologie en ADN de Wikipédia en français (auteurs)
    Les textes sont disponibles sous licence Creative Commons paternité partage à l’identique

     
  8. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Nanomatériau


    Un nanomatériau est un matériau (sous forme de poudre, aérosol ou quasi-gaz, suspension liquide, gel) possédant des propriétés particulières à cause de sa taille et structure nanométrique.

    De nombreux matériaux font l'objet de recherche visant à les produire sous forme de nanoparticules (Métaux, céramiques, matériaux diélectriques, oxydes magnétiques, polymères divers, carbones, etc. ), seuls ou en formes ou structures composites.
    Les nanomatériaux sont - au sens commun du terme - habituellement issue de la nanotechnologie, à la différence des nanoparticules qui peuvent être d'origine naturelle ou résulter de processus tels que le soudage, le fumage, le polissage, etc.
    On parle de nanocomposites qui sont par exemple des matériaux dits nanostructurés (en surface ou en volume), ou nanorenforcés.

    Avec la mise au point de techniques permettant d’élaborer des matériaux dont les dimensions sont nanométriques, un champ considérable s’est ouvert pour des matériaux nouveaux et des propriétés ont été découvertes qui relèvent de la physique (optique, électronique, magnétisme), avec déjà un ensemble très important d’applications industrielles, de la catalyse ou de la mécanique, avec toutefois, pour les matériaux structuraux, une limitation liée à la difficulté à accéder à des quantités de matière ou à des coûts pertinents. Parallèlement se sont développées des technologies permettant de façonner, par modulation de la composition ou par usinage à l’échelle nanométrique, des systèmes de matériaux et, de là, d’inventer des dispositifs qui sont la clef du futur en microélectronique et en informatique.

    Vue en rotation d'une sphère de fullerène
    de type
    Buckminsterfullerène, nanoproduit considéré comme toxique (C[SUB]60[/SUB])


    [​IMG]

    Description : spinning Buckminsterfullerene (C[SUB]60[/SUB])
    Date : 5 septembre 2010
    Source : Travail personnel, created with PyMOL (0.99rc2) and GIMP (2.6.10)
    Ce fichier est disponible selon les termes de la licence
    Creative Commons paternité – partage à l’identique 3.0 (non transposée).
    Ce fichier et sa description proviennent de Wikimedia Commons.

    ______________________________


    Fabrication


    Deux approches existent, qui consistent à :

    • Assembler des atomes dans un « réacteur » ou autre système pour produire des nanoparticules : Approche bottom-up ;
    • Dégrader de la matière en particules nanométriques : Approche top-down.

    Nanomatériaux actuellement étudiés ou exploités


    Les plus souvent évoqués sont :

    • Nanotubes de carbone ou de nitrure de bore
    • Nanoparticules métalliques : sphères métalliques de taille nanométrique. Ces nano-objets peuvent être synthétisés par voie chimique (croissance) ou physique (jets moléculaires). ex : Nanoargent désinfectant ou désodorisant dans les chaussettes et autres vêtements, ciment autonettoyant au dioxyde de titane ; crème solaire au dioxyde de titane, etc.
    • Nanopoudres de céramique (silicates ou oxyde de titane) : obtenus en vaporisant des précurseurs métalliques et/ou organiques dans une flamme à très haute température. Ces nanopoudres ont des propriétés dans le traitement de surface de matériaux (durcissement), les matériaux bio-compatibles (implants osseux) et les polymères conducteurs notamment.
    • Nanofibre, notamment de carbone : ces matériaux ont des propriétés qui intéressent le domaine de la conductivité électrique, de la résistance mécanique et des implants biocompatibles (muscles artificiels). Elles peuvent également servir à stocker efficacement l'hydrogène.
    • Nanofeuille de verre : leur usage est envisagé dans le domaine des disques optiques. La densité d'informations pourrait être multipliée par 4 par ce procédé, mettant en œuvre le dépôt d'oxyde de cobalt sur la surface du disque. Des procédés mettant en œuvre du chrome, du zirconium et du cobalt laissent espérer des densités encore plus importantes.
    • Nanofilm d'ADN : ces films ont des propriétés filtrantes, exploitables notamment dans le domaine environnemental.
    • Nanocristal : par exemple, diamant artificiel ayant des propriétés électriques permettant de fabriquer de nouveaux microprocesseurs. Les cristaux naturels, comme l'opale ou le saphir sont soumis à des recherches. nanocristaux de semi-conducteurs fluorescents, etc.
    • Nanocomposites : des matériaux composites ayant des propriétés de dureté et de résistance à l'usure.
    • nanoproduits pour l'alimentation ; antiagglomérant pour sucre de table à la silice (avis réservé de l'AFSSA en France qui demande un étiquetage spécifique).
    Autres nanomatériaux:


    Risques
    Les risques toxicologiques et écotoxicologiques sont liés à la taille très petite (100 000 fois plus petit qu'une cellule humaine moyenne) de ces matériaux, qui fait qu'ils se comportent comme des gaz et passent au travers des muqueuses et de la peau et de toutes les barrières (y compris méninges protégeant le cerveau, et placenta).
    Les risques sont donc potentiellement liés à

    Le risque varie selon le nanomatériau considéré (selon la taille, la quantité, la structure, la surface spécifique et réactivité de surface, la toxicité chimique, une éventuelle radioactivité, les capacités d'agrégation, la réactivité, le comportement dans l'eau ou l'air, la présence éventuelle d'un surfactantou d'un solvant, etc.).
    Un même matériau présente une toxicité accrue lorsqu'il est à une dimension nanométrique, à cause d'une réactivité accrue.
    Un des principaux risques identifiés concerne l'air inhalé (les nanopartiules libres se comportent comme des gaz plus que comme des aérosols ; Certains métaux (aluminium, lithium, magnésium, zirconium) ou des produits combustibles peuvent, à l'état de nanoparticules, former dans l'air des nuages explosifs. Ils doivent être entreposés sous atmosphère inerte (azote par exemple).
    D'après certaines sources

    • une particule de 1 nm ne peut pas atteindre les alvéoles pulmonaires ;
    • une particule de 5 nm se dépose aléatoirement au niveau du nez et du pharynx, de la trachée et des bronches ou encore au niveau des alvéoles ;
    • une particule de 20 nm se dépose dans plus de 50 % des cas au niveau alvéolaire.
    Les nanoparticules insolubles présentent également des propriétés de translocation leur permettant de se déplacer dans l’organisme. Ces particules peuvent passer des poumons au sang, puis être distribuées dans l’ensemble de l'organisme. Ces particules intéressent également la pharmacologie pour leur capacité à atteindre le cerveau, à franchir les barrières intestinales, cellulaires et placentaires.

    Un rapport IRSST (Ostiguy et al, 2006) regroupe les connaissances toxicologiques spécifiques aux nanoparticules disponibles à cette époque. Les risques peuvent concerner des travailleurs (plusieurs centaines de personnes exposées, au Québec, à des nanoparticules) ou encore des utilisateurs de produits finis. Le nombre de personnes exposées devrait augmenter avec l'usage accru de ces produits.

    Dans le domaine de la santé
    Les nanomatériaux présentent certaines propriétés potentiellement intéressantes pour la médecine, mais pourraient aussi être source de nouveaux risques. En 2012, alors qu'une utilisation de nanotechnologies et des nanomatériaux est déjà en cours dans de nombreux domaines, y compris la santé (on parle même de nanomédecine, avec trois champs principaux qui sont le diagnostic, la délivrance de médicaments et la la médecine régénérative, avec aussi des applications qui intéressent la chirurgie et la thermothérapie). Concernant les risques liés aux implants et matériels médicaux, en France, l'Afssaps a fait une première évaluation en 2011 en Europe le SCENIHR a demandé un avis scientifique à ce propos, et en particulier concernant :

    • L'usage de nanotubes de carbone dans certains produits (ciments) de reconstruction osseuse
    • l'utilisation de nanopoudre d'hydroyapatite dans les pâtes destinées à remplir des vide dans l'os ;
    • l'usage de polymère contenant des nanoparticules dans le cadre de résines de remplissage dentaires ;
    • l'usage de nanocéramiques polycristallines dans les matériaux de restauration dentaires;
    • l'intégration de nanoparticules d'argent ou d'autres nanomatériaux dans les revêtement de cathéters et d'implants;
    • l'utilisation de nanoparticules d'argent comme agent antibactérien, dont dans les pansements (Wijnhoven et al. 2009).
    Des retours d'expérience existent déjà sur l'utilisation de nanoparticules d'oxyde de fer injectées dans des cellules tumorales ensuite chauffée par rayonnement pour par champ magnétique externe. De tels produits peuvent être utilisés dans le réseau sanguin ou en neurochirugie (neuroprothèses), reconstitution de réseau neuronal
    Il reste de nombreuses lacunes en matière d'évaluation des risques, même pour des produits déjà très répandus tels que le nano-argent, et les usages médicaux des nanoparticules ou nanoproduits ne sont pas clairement encadrés par la législation sur la médecine ni sur les implants et matériels médicaux et en dépit d'avis donnés en 2006, 2007 et 2009, le SCENIHR souhaite en 2012 éclaircir certains points non encore abordés, notamment concernant les implants (dont produits de remplissage dentaire).


    Législation et réglementation


    À partir du premier janvier 2013, fabricants, importateurs et distributeurs de nano-produits ont en France l'obligation de déclarer l'identité, les quantités et les usages des nanomatériaux.

    Cette démarche impliquera notamment l'expertise de l'Agence nationale de sécurité sanitaire de l'alimentation, de l'environnement et du travail (Anses), qui «face aux incertitudes scientifiques et aux interrogations sociétales suscitées par les potentiels risques sanitaires des nanomatériaux», a - pour ses travaux d'«expertise collective» en matière de nanomatériaux - installé en septembre 2012, un groupe d'experts et de travail dit «Nanomatériaux et santé - alimentation, environnement, travail» notamment chargé d'assurer une veille scientifique «en temps réel» dont sur le sujet des risques émergents (sanitaires et environnementaux) et des dangers liés aux expositions aux nanomatériaux manufacturés; pour tous leurs usages. De plus, l'appel à Projets de Recherche en Santé-Environnement-Travail (APR-EST) de l'ANSES peut soutenir la Recherche dans ce domaine.

     
  9. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Nano-argent


    Le nano-argent (nanoargent, «nano-silver» pour les anglophones) est un nanomatériau à base d'atomes d'argent, produit sous forme de nanoparticules par des nanotechnologies. En 2008, selon les producteurs, environ 500 t/an de nano-argent auraient été produites dans le monde, sous forme d'ions argent, de particules d’argent protéinées (silver proteins) ou de colloïdes utilisés comme biocide.

    Les nanoparticules les plus vendues et les plus diffusées dans l'environnement en 2004 sont du nanoargent ou à base de nanoargent (56 % du total de la production), devant le carbone (17 %) et le zinc (7 %).

    À échelle nanométrique, le nano-argent a des propriétés particulières, biocides notamment, que l'industrie pharmaceutique, des pesticides ou agroalimentaire cherchent à utiliser et valoriser.

    Mais il pose aussi des problèmes de risques en santé-environnement (toxicologie, écotoxicologie).


    Vocabulaire et étiquetage


    Le mot nanoargent décrit théoriquement le nanomatériau lui-même, constitué de différents agencements d'atomes d'argent, éventuellement combinés avec d'autres atomes (nanocomposite). Des discussions terminologiques existent, car si la production de nanoargent aurait été multipliée par 500 de 2000 à 2004 selon ses producteurs, certains produits (argent protéiné notamment) usurpent le nom de nanoargent, l'argent n'y étant présent qu'à des tailles microniques ou submillimétriques).

    L'étiquetage ne permet que très rarement de discerner l'efficacité (variable) de ces produits.


    Usages


    Ils sont déjà nombreux, alors que l'évaluation toxicologique et écotoxicologique n'a pas eu lieu :

    • bactéricide (1/5ème de la production)
    • additif pour le textile (exemple : chaussettes et vêtements bactéricides et anti-odeurs)
    • cosmétiques, déodorant
    • sprays
    • revêtements de matériaux métalliques (réservoirs métalliques d'aspirateurs sans sac)
    • plastiques d'emballage alimentaire ou d'objets devant avoir des vertus biocides
    • touches d'appareils mobiles ou d'ordinateurs (Samsung notamment)
    • vernis
    • peintures
    • plans de travail, plans de découpe
    • pansements
    • parois de réfrigérateurs
    • éléments de climatiseurs
    • emballage pour contact alimentaire...
    • matériel diffusant via un système électrolytique du nano-argent dans l'eau de la douche (en 2008, selon la publicité)
    • machine à laver le linge diffusant du nano-argent (400 millions d'ions argent par cycle de lavage et rinçage selon la publicité)
    • pulvérisation de nanoargent et nanotitane sur les parties souvent touchées par les mains dans les transports publics à Hong-Kong (MTR Corporation)
    • produit désinfectant destiné à être apposé sur les préservatifs, contre les maladies sexuellement transmissibles.
    Historique

    Depuis les années 1990, l'« argent colloïdal », une solution liquide de nano-argent, a été publicisé en tant que médicament alternatif, souvent en lui revendiquant des qualités impressionnantes de médicament «guérit-tout». Certains affirment encore que l'effet de ce produit n'a jamais été prouvé scientifiquement. Pourtant les études scientifiques sont de plus en plus nombreuses sur les effets antibactériens de l'argent colloïdal, y compris sur les souches multi-résistantes de Staphylococcus aureus.

    De fait le retour du nano-argent a débuté avec la recherche scientifique dans les années 1970 par le Dr. Robert O. Becker (nommé deux fois pour le Prix Nobel, prix VA's William S.Middleton, chef de recherche à Washington, inspecteur médical des recherches pour le VA,...) à l'université de médecine de Syracuse puis à Washington. Devant tous les résultats positifs qu'il avait obtenus dans le traitement d'infections “incurables” par l'argent colloïdal, Becker publia ses résultats dans des journaux scientifiques médicaux. Mais ses fonds de recherche furent coupés. Il publia deux livres dans les années 1980 et au début des années 1990 : The Body Electric et Cross Currents, pour lesquels à défaut de la reconnaissance des autorités médicales il reçut celle du public qui en fit deux bestsellers du New York Times et Los Angeles Times. Il y décrit les succès du nano-argent dans sa lutte contre des pathogènes multiples (cas d'ostéomyélite, régénération de tissus osseux et musculaires divers). Ses recherches prouvent que les nano-particules d'argent amènent un "plus" important par rapport aux autres techniques utilisant des impulsions électriques dans le traitement des fractures et autres dégâts des tissus, notamment des tissus osseux mais pas seulement ceux-ci. Les courants électriques utilisés sans association à l'argent, amènent la formation de radicaux libres qui irritent les cellules et provoquent ainsi une stimulation des cellules chargées de fabriquer les tissus. Par contre, les électrodes d'argent stimulent la formation de tissus par différenciation des cellules de la moelle et par stimulation des cellules périostéales. Entre autres études de la même veine, le Dr. Larry C. Ford de l'École de médecine de l'UCLA a documenté dans les années 1980 plus de 650 pathogènes différents tués par l'argent en quelques minutes. De nombreuses études lui ont depuis donné raison, et cette caractéristique fondamentale du nano-argent ne peut plus de nos jours être mise en doute sur des bases scientifiques saines.

    Malgré cette croissante accumulation de preuves de l'efficacité du nano-argent, dans certains endroits il est illégal de lui attribuer ces qualités en publicité. Les autorités médicales déconseillent l'ingestion de préparations contenant de l'argent colloïdal à cause de leur manque d'effets bienfaisants prouvés et à cause du risque d'effets secondaires néfastes tels que l'argyrisme. Voir cependant dans la section "Risques" la différence à établir entre le nano-argent pur, proprement appelé argent colloïdal, et les composés qui en contiennent, englobés sous le nom de nano-argent sans en avoir la pureté.

    Historiquement, l'argent colloïdal fut aussi utilisé comme médicament pour traiter diverses maladies depuis la fin du XIXe siècle. Son utilisation a été interrompue dans les années 1940, à cause du développement d'antibiotiques modernes sécuritaires et efficaces et d'inquiétudes concernant ses effets secondaires (principalement l'argyrisme). Cependant les connaissances accumulées depuis ces 120 ans d'expérience médicale avérée devraient faire prévaloir le bon sens de ne pas rejeter un produit avéré efficace sous prétexte que l'on a changé son nom et dans le même mouvement amalgamé ce produit avec des produits dérivés contenant d'autres composants eux reconnus comme toxiques.


    On voit cependant une forte recrudescence de l'intérêt pour l'argent colloïdal à cause du développement de bactéries résistantes aux antibiotiques, par exemple certaines souches de malaria en Afrique, ou les maladies nosocomiales en très forte recrudescence dans les établissements de santé occidentaux.

    Formes


    Les nanoparticules d'argent peuvent former de 50 % à 80 % du poids de l'argent d'un colloïde, les 20 à 50 % restant étant des ions argent.
    Il peut atteindre au moins 15 % à plus de 90 % du produit pour certains usages (jusqu'à 100 % de perte en 4 lavages pour certaines chaussettes, même si elles n'ont pas été portées et lavées à la main).
    Différents types morphologiques peuvent être produits en jouant sur les phénomènes de précipitation et cristallisation ; cubes, cubes creux, sphères, particules à facettes, grains pyramidaux dont la réactivité et les propriétés (toxicité notamment) varient. 1 cm[SUP]3[/SUP] d'une concentration à 1 ppm de nanoparticules d'argent représente 25 000 milliards de ces particules.


    Risques


    Ils sont très mal évalués et certains pensent qu'ils sont potentiellement nombreux et importants, d'autant que les souhaits des industriels d'utiliser plus de nanoargent dans les emballages pourraient conduire à des seuils jamais observés à ce jour dans la nature :

    • toxicité pour l'homme (voir plus bas le paragraphe consacré à ce thème) ;
    • écotoxicité : de nombreux organismes, donc les écosystèmes, peuvent être affectés par la forme ionique de l'argent. Cette toxicité a été clairement mise en évidence suite aux rejets dans l'eau d'effluents pollués par des sels d'argent en aval de l’industrie photographique dans les années 1980. Les toxicologues ont montré que sous forme ionique et solubilisée ce métal était très écotoxique, même à faible dose : ce serait le métal le plus toxique après le mercure (sous cette forme ionique) ; pour la faune et la flore aquatique, marine surtout.

    L'argent a pour cette raison été classé en 1977 dans la liste des substances polluantes dont les rejets dans l’environnement doivent être prioritairement régulés.
    L’argent n'est pas biodégradable (persistant). Il est biocompatible et facilement bioaccumulé dans certaines conditions ou par certaines espèces, dont l'une a été utilisée en phytoremédiation (une fougère aquatique; Azolla filiculoides).

    Les sels d'argent tuent à faible dose la plupart des bactéries, mais perturbent aussi le métabolisme et la santé reproductive d'organismes supérieurs à sang froid (poissons et crustacés notamment).


    Les mammifères semblent moins sensibles aux faibles doses.

    • L'argent attaque les nerfs (cutanés) et peut provoquer l’argyrisme, mais pas sous n'importe quelle forme. Les cas d'agyrisme sont toujours associés à des sels d'argent, qui sont une mixture d'argent et d'autres particules. Le registre fédéral des États-Unis a listé les produits 'argentés' qui causent l'algyrisme comme "sels d'argent", et cite spécifiquement (et uniquement) les nitrate d'argent, arsphénamine d'argent, chlorure d'argent et (cité en "peut-être" dans leur liste) iodure d'argent. Ces sels, hormis qu'ils contiennent de l'argent dans des proportions diverses, sont donc très différents de l'argent pur proprement appelé nano-argent.
    • déstabilisation des communautés bactériennes dans l’environnement (hypothéquant le fonctionnement des stations d’épuration) ;
    • augmentation de l'antibiorésistance et du risque nosocomial

    Il s'agit toutefois de bien réaliser que le nano-argent est fondamentalement différent des sels d'argent ; et que ces derniers (parmi lesquels on inclut par exemple le nitrate d'argent) sont prouvés toxiques, tandis que le nano-argent a été sans ambigüité prouvé non-toxique tout en étant plus efficace comme biocide contre les pathogènes. L'EPA (agence de protection de l'environnement américaine) amalgame malencontreusement le nano-argent et les «structures composites (contenant du) nano-argent».

    On manque de données sur le relargage et la cinétique environnementale du nanoargent (nanoparticules ou ions argent) dans l'environnement ou les organismes vivants. Il est cependant déjà clair que le nano-argent peut combattre des infections fongiques menaçant de faire disparaître des espèces entières chez les végétaux également ; le nano-argent détruit l'hyphe du champignon mais aussi ses conidies (système reproducteur).

    Synergies possibles
    Des synergies sont possibles. Par exemple, combinées à du phosphate de calcium l'activité de particules d'argent de vingt à cinquante nanomètres peut être jusqu'à 1 000 fois supérieure, ce qui laisse présager des impacts environnementaux exacerbés.
    Parmi 800 nano-produits répertoriés dans les années 2000 par le Woodrow Wilson Institute, 56 % étaient fabriqués à partir de nano-argent (le plus souvent à partir de nanoparticules d'argent).

    Des évaluations estiment qu'en 2015, il pourrait en être produit 1 000 à 5 000 tonnes/an, ce qui correspondrait à 1/3 de l'actuelle production mondiale d’argent).
    Des rats exposés aux nanoparticules de 15 nanomètres inhalées présentent ensuite ces particules dans tout l’organisme (cerveau y compris), avec des effets qu’on ignore ). Un article de février 2009 a conclu que des nanoparticules d’argent testés en association avec du cuivre, (argent seul et argent colloïdal) pour différentes tailles de nanoparticules interféraient avec la duplication de l’ADN. À forte dose, une argyria est possible.

    Concernant la santé humaine
    Des interrogations fortes existent, notamment sur la toxicité des faibles doses de nanoparticules argentiques, car leurs effets sont a priori très différents de ce qu'on connaît de l'argyrisme (maladie induite par l'absorption de fortes doses d'argent, qui se traduit notamment par la coloration de la peau qui devient bleue ou bleu-gris-noir).
    De nombreux experts craignent aussi une augmentation des résistances bactériennes à certains antibiotiques majeurs, tels que les bêta-lactamines qui représentent 50 % des prescriptions médicales, et par suite une augmentation de certaines maladies nosocomiales.

    Cependant des recherches de plus en plus nombreuses (principalement en anglais jusqu'à présent) prouvent que cette crainte de l'augmentation des résistances bactériennes au nano-argent n'est pas fondée. Les craintes d'augmentation du risque nosocomial sont elles aussi démenties par des études démontrant au contraire que le nano-argent combat très efficacement les plus virulents vecteurs de ces maladies : Pseudomonas aeruginosa, Escherichia coli O157:H7 résistant à l'ampicilline, et Streptococcus pyogenes résistant à l'érythromycine, responsables à eux trois de plus de 50 % des maladies nosocomiales en France, sont très rapidement et efficacement éradiqués par le nano-argent.


    Responsabilités juridiques, Droit de l'environnement


    Il est balbutiant et presque inexistant pour le domaine des nanotechnologies. L'approche de précaution est généralement demandée. Par exemple la Royal Society et la Royal Academy of Engineering en Grande-Bretagne avaient, dès 2004, recommandé d’interdire les rejets intentionnels de nanomatériaux dans l’environnement. Le droit européen et français estiment que le dernier propriétaire est responsable d'un déchet rejeté dans l'environnement, mais si celui-ci n'était pas informé ou susceptible de l'être des risques liés à son déchet, il peut se retourner contre le vendeur ou producteur. La convention d'Aarus demande en Europe que l'information sur les risques environnementaux soit accessible à tous. Les états et fabricants n'ayant pas mis en place les dispositifs de vigilance sanitaire et écologique porteraient aussi leur part de responsabilité.


    ____________________________
    Nom de la page : Nano-argent
     
  10. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Nanotube de carbone


    Les nanotubes de carbone sont une forme allotropique du carbone appartenant à la famille des fullerènes. En 2008, ce sont les matériaux les plus résistants et durs ; la théorie leur prédit une conductivité électrique et une conductivité thermique remarquablement élevées. Ce sont les premiers produits industriels issus des nanotechnologies.

    Découverte


    En 2006, un éditorial de Marc Monthioux et Vladimir Kuznetsov du journal Carbon a décrit l'intéressante et pourtant méconnue origine des nanotubes de carbone. Une très grande partie des revues de toute nature attribuent, à tort, la découverte de tubes nanométriques composés de feuillets de graphite à Sumio Iijima (NEC) en 199. Bien que ses publications aient marqué le point de départ de l'intérêt pour ces structures, Sumio Iijima n'a pas été en fait le premier à observer un nanotube de carbone (voir plus bas), mais de toute façon, il serait impossible de savoir qui a été le premier à en créer. En effet, dès la découverte du feu il y a environ 500 000 ans, il s'en produisait déjà (en infime quantité) dans la suie des foyers, où, fractionnées sous l’effet de la chaleur, les molécules de carbone voient leurs atomes se recombiner d'innombrables façons, donnant naissance tantôt à de minuscules gouttes amorphes, tantôt à des nanostructures géodésiques.

    La première observation réelle de nanotubes semble dater de 1952, année où Radushkevich et Lukyanovich ont publié des images claires de tubes de carbone d'environ 50 nanomètres de diamètre dans le Journal of Physical Chemistry (soviétique). Cette découverte ne s'est pas répandue, l'article étant publié en russe, les scientifiques de l'ouest ayant de plus un accès restreint aux publications soviétiques durant la guerre froide. Comme on l'a dit, des nanotubes de carbone furent produits bien avant cette date, mais c'est seulement à partir de cette époque que l'invention du microscope électronique en transmission permit une visualisation directe de ces structures.

    Les nanotubes de carbone furent donc produits et observés sous différentes conditions, bien avant 1991. Un article d'Oberlin, Endo et Koyama publié en 1976 montre clairement des fibres de carbones creuses (hollow carbon fibres) de taille nanométrique, obtenues à partir de méthodes CVD. De plus, les auteurs montrent une image en MET d'un nanotube constitué d'un seul feuillet de graphène. Plus tard, Endo a considéré que cette image était celle d'un nanotube mono-feuillet.


    [​IMG]

    Description : Représentation d'un nanotube de carbone
    Source : German Wikipedia, original upload 29. Dez 2004 by APPER
    Auteur : Original hochgeladen von Schwarzm am 30. Aug 2004; Selbst gemacht mit C4D/Cartoonrenderer, GNU FDL
    Ce fichier est disponible selon les termes de la licence
    Creative Commons paternité – partage à l’identique 3.0 (non transposée)
    [​IMG]Ceci est une image remarquable sur la Wikipédia
    en tamoul (இன்றையசிறப்புப்படம்)
    et est considéré(e) comme l'une de nos meilleures images.

    ________________________________



    En outre, en 1979, John Abrahamson présenta des preuves de l'existence des nanotubes de carbone à la 14[SUP]e[/SUP] Conférence biennale du Carbone de l'université d'État de Pennsylvanie. Lors de la conférence, les nanotubes de carbone furent décrits comme des fibres de carbone produites sur une anode de carbone après formation d'un arc électrique. Les caractéristiques de ces fibres étaient données, ainsi que des hypothèses sur leur croissance en milieu azoté à basse pression

    En 1981, un groupe de scientifiques soviétiques publia les résultats de la caractérisation chimique et structurelle de nanoparticules de carbone produites par dismutation thermo-catalytique de monoxyde de carbone. En utilisant des images MET et aux rayons X, les auteurs suggérèrent que leurs «cristaux tubulaires multi-couche de carbone» étaient formés par enroulement de couches de graphène en cylindres. De plus, ils supposèrent que durant cet enroulement, plusieurs dispositions du réseau hexagonal du graphène étaient possibles. Ils envisagèrent deux possibilités : une disposition circulaire (nanotubes de type «fauteuil») et une disposition en spirale (nanotubes chiraux).

    En 1993, Sumio Iijima et Donald S. Bethune d'IBM en Californie réussissent indépendamment à synthétiser des nanotubes monofeuillet. Si Iijima obtient ses nanotubes monofeuillets en phase gazeuse, Bethune utilise quant à lui une technique de covaporisation de carbone et de cobalt.


    Structure

    Il existe deux types de nanotubes de carbone :

    • Les nanotubes de carbone mono-feuillets, (en anglais Single-walled Carbon Nanotubes, SWNT) ;
    • Les nanotubes de carbone multifeuillets, (en anglais Multi-walled Carbon Nanotubes, MWNT).
    On parle aussi de nanotubes de carbones double-feuillets (en anglais double-walled carbon nanotubes, DWNT) aux propriétés à mi-chemin entre les deux types précédents.

    Nanotubes de carbone monofeuillets (SWNT, single-walled nanotubes)

    La structure d'un nanotube de carbone monofeuillet peut être représentée par un feuillet de graphène enroulé sur lui-même et fermé à ses deux extrémités par une demi-sphère. La façon dont le feuillet de graphène est replié sur lui-même définit un paramètre, appelé hélicité, qui fixe la structure du nanotube. L'hélicité permet de caractériser les différents types de nanotubes existants.

    - Enroulement
    Le nanotube monofeuillet est donc constitué d'une feuille de graphène enroulée sur elle-même. Cette feuille de graphène présente une structure de type nid-d'abeille, dont on peut donner 2 vecteurs directeurs, a[SUB]1[/SUB] et a[SUB]2[/SUB]. On définit ensuite le vecteur de chiralité, C[SUB]h[/SUB], axe selon lequel le graphène s'enroule pour former le nanotube. Ce vecteur peut donc être décomposé en deux composantes, selon les vecteurs a[SUB]1[/SUB] et a[SUB]2[/SUB]. Soient m et n, les scalaires tels que C[SUB]h[/SUB] = n a[SUB]1[/SUB] + m a[SUB]2[/SUB].

    Selon la valeur de ces 2 scalaires, 3 types d'enroulement, donc trois types de nanotubes peuvent être décrits :

    • Si m=0, on dira que le nanotube a une structure de type « zig-zag »
    • Si m=n, on dira que le nanotube a une structure de type « chaise »
    • Dans tous les autres cas, on dira que le nanotube est « chiral ».
    Ces différences d'hélicité donneront aux nanotubes de carbone des propriétés différentes. Notamment, en ce qui concerne les propriétés électriques. Un nanotube de carbone de chiralité (n,m) sera métallique si (2n + m) est un multiple de 3. Sinon, il sera semi-conducteur. Donc un nanotube de carbone chaise sera toujours métallique (car on a 2m+m) tandis qu'un nanotube zig-zag ou chiral sera soit métallique, soit semi-conducteur.

    - Extrémités
    On obtient ainsi un tube ouvert à ses deux extrémités, il reste donc à le fermer. Pour cela il faut introduire des défauts de courbure dans le plan de graphène, il s'agit ici de pentagones.

    Ces pentagones introduisent une courbure de 112° dans le feuillet et les lois mathématiques d'Euler montrent qu'il faut un minimum de 12 pentagones pour fermer le feuillet (soit 6 pentagones à chaque extrémité du tube). Les études montrent que la molécule de C60 contient justement 12 pentagones et 20 hexagones : il s'agit donc du plus petit fullerène possible. Cependant, alors qu'une distribution théorique régulière de ces pentagones donne une forme hémisphérique, on observe le plus souvent une pointe de forme conique.

    On a donc montré que le nanotube de carbone est formé avec un feuillet de graphène auquel on a ajouté de la courbure simple pour rouler ce feuillet sur lui-même et des défauts de topologie pour fermer ses extrémités. Un nanotube a un diamètre compris entre 1 et 10 nanomètres pour une longueur de plusieurs micromètres et est de ce fait un objet de taille moléculaire et possédant un caractère monodimensionnel. (L'une des dimensions est bien plus grande que les deux autres, ici la longueur face au diamètre).

    Nanotubes de carbone multifeuillets (MWNT, multi-walled nanotubes)

    Un nanotube de carbone multifeuillet est constitué de plusieurs feuillets de graphènes enroulés les uns autour des autres. Il existe deux modèles pour décrire la structure des nanotubes multifeuillets :

    • le modèle poupée russe: les plans de graphène sont arrangés en cylindres concentriques ;
    • le modèle parchemin: un seul feuillet de graphène est enroulé sur lui-même, comme une feuille de papier.

    Propriétés


    Les nanotubes de carbone suscitent un énorme intérêt dans le monde de la recherche autant fondamentale qu'appliquée car leurs propriétés sont exceptionnelles à bien des égards. D'un point de vue mécanique, ils présentent à la fois une excellente rigidité (mesurée par le module de Young), comparable à celle de l'acier, tout en étant extrêmement légers. Des points de vue électrique et optique, les nanotubes mono-feuillets ont la particularité tout à fait exceptionnelle de pouvoir être soit métalliques soit semi-conducteurs en fonction de leur géométrie (diamètre du tube et angle d'enroulement de la feuille de graphène).

    Propriétés mécaniques
    Les nanotubes se montrent intéressants par les principales caractéristiques suivantes :

    Bien que difficile à vérifier expérimentalement (la petite taille des nanotubes ne permet pas de véritables tests de contrainte pour l'instant), la résistance des nanotubes de carbone devrait être (d'après des simulations informatiques) environ 100 fois supérieure à l'acier pour un poids 6 fois moindre (à section équivalente).
    Ces propriétés varient aussi selon la nature du nanotube. Les nanotubes multifeuillets sont beaucoup plus résistants que les nanotubes mono-feuillets.

    - Dureté
    Le module de Young des nanotubes est le plus souvent supérieur à 1Tpa

    Conductivité thermique

    Les nanotubes de carbone ont une conductivité thermique très élevée, de 6 à 20 W.cm-1.K-1, qui peut dans certains cas s'approcher de celle du diamant (20 W.cm-1.K-1).

    Propriétés électriques


    • Les nanotubes ont une conductivité supérieure à celle du cuivre (et 70 fois supérieure à celle du silicium).
    • Le nanotube de carbone a la plus grande mobilité jamais mesurée : 100 000 cm[SUP]2[/SUP]⋅V[SUP]-1[/SUP]s[SUP]-1[/SUP] à 300 K (le précédent record étant de 77 000 cm[SUP]2[/SUP]⋅V[SUP]-1[/SUP]s[SUP]-1[/SUP] pour l'antimoniure d'indium).
    • Les nanotubes de carbone deviennent supraconducteurs à basse température.
    • Les nanotubes de carbone permettent de réaliser des transistors à un niveau de miniaturisation jamais atteint jusqu'à maintenant. Des chercheurs d'IBM ont d'ores et déjà réussi à créer un transistor sur un nanotube.
    • Les nanotubes de carbone pourraient également permettre de réaliser des émetteurs d'électrons à l'échelle du nanomètre.

    Les propriétés électriques des nanotubes dépendent de la nature du nanotube : les nanotubes monofeuillets ont de meilleures propriétés que les multifeuillets (ces derniers ont de moins bonnes propriétés en partie à cause des interactions électriques, de type van der Waals, entre les différentes couches de graphène).

    Dans une feuille de graphite dont la densité de porteurs est élevée (donc un matériau conducteur d’électricité), seuls contribuent à la conduction les électrons proches du niveau de Fermi. Aucun des électrons des atomes de carbone dans un autre état énergétique ne peut circuler librement. Un tiers des nanotubes de carbones existants possèdent à la fois le bon diamètre et la bonne structure de torsade (appelée twist) pour inclure le niveau de Fermi dans leur sous-ensemble d’états quantiques autorisés.

    - Propriétés d'émission de champ
    Les nanotubes peuvent présenter une longueur extrêmement grande devant leur diamètre (rapport d'aspect >1000). Soumis à un champ électrique, ils vont donc présenter un très fort effet de pointe (cf. principe du paratonnerre). Avec des tensions relativement faibles, on peut générer à leur extrémité des champs électriques colossaux, capables d'arracher les électrons de la matière et de les émettre vers l'extérieur. C'est l'émission de champ.

    Cette émission est extrêmement localisée (à l'extrémité du tube) et peut donc servir à envoyer des électrons sur un endroit bien précis, un petit élément de matériau phosphorescent qui constituera le pixel d'un écran plat par exemple. Le matériau phosphorescent évacue l'énergie reçue sous forme de lumière (même principe que les écrans de tubes cathodiques).
    L'exploitation de cette propriété a déjà permis de réaliser des prototypes d'écrans plats à nanotubes (Samsung et Motorola).

    Propriétés chimiques

    Les nanotubes sont des structures creuses, que l'on peut remplir avec d'autres composés chimiques, ce qui en fait des récipients clos à l'échelle nanométrique, appelés nanofils.
    Les nanotubes de carbone sont relativement peu réactifs et une modification chimique de leur surface fait souvent appel à des espèces fortement réactives (oxydants forts, réducteurs forts, espèces radicalaires par exemple). C'est pourquoi une chimie de greffage de nanotubes basée sur des interactions non covalentes s'est fortement développée ces dernières années (adsorption de tensioactifs, enroulement de polymères, d'ADN, adsorption de pyrènes, etc).


    Propriétés optiques
    - Propriété d'absorption de la lumière (Vers l'hyper-sombre…)
    Le matériau le plus noir jamais conçu par l'Homme est un tapis de nanotubes disposés verticalement, réalisé par des chercheurs l'Université Rice autour du professeur Pulickel Ajayan ; avec un indice de réflexion de 0,045 %, il est 30 fois plus sombre que le carbone, ce qui lui permet d’absorber 99,955 % de la lumière qu’il reçoit. C’est 3 fois «mieux» que ce que permettait l'alliage de nickel-phosphore qui était le matériau réputé le plus sombre. Ces inventions pourraient intéresser les secteurs militaire, de la communication, de l’énergie (solaire notamment), de l’observation, des colorants, etc.

    - Propriétés d'électroluminescence
    Des chercheurs d'IBM ont indiqué avoir réussi à faire émettre de la lumière infra-rouge par des nanotubes de carbone semi-conducteurs placés dans une géométrie de transistor. Les nanotubes non dopés et soumis à un champ électrique généré par une grille peuvent conduire le courant par l'intermédiaire d'électrons (tension de grille négative) ou de trous (tension de grille positive). Si on soumet en plus le nanotube à une tension drain-source (entre les deux extrémités du tube), le courant est transporté par des trous à une extrémité et des électrons à l'autre (transistor ambipolaire). À l'endroit où ces deux types de porteurs se rencontrent (par exemple au milieu du tube si la tension de grille est nulle), il y a recombinaison de paires électron-trou et émission d'un photon.

    - Propriétés de photoluminescence (Section vide)

    Défauts

    Comme dans de nombreux matériaux, l'existence de défauts affecte ses propriétés. Ils peuvent se présenter sous la forme :

    • de vides atomiques (atomes manquant dans la structure du graphène). De tels défauts peuvent affecter la résistance physique des nanotubes, voire dans les cas plus graves la faire baisser de 15 % .
    • de Stone Wales defect: au lieu de former des hexagones, les atomes de carbones se réarrangent en pentagones ou en heptagones.
    De par leur structure presque unidimensionnelles, la résistance physique des nanotubes dépend de la section la plus faible : comme sur une chaîne, la résistance de celle-ci est celle du maillon le plus faible.
    Les propriétés électriques et thermiques sont aussi affectées par ces défauts. En général, la zone présentant un défaut est moins bonne conductrice.

    Synthèse des nanotubes de carbone


    Il existe plusieurs manières de synthèse. On peut citer deux grandes familles: les synthèses à haute température, et les synthèses à moyenne température, ou CVD (Chemical Vapour Deposition)

    Méthodes à haute température

    C'est la méthode préférentielle pour obtenir des nanotubes monofeuillets. Sous des conditions de température et de pression élevées, on fait évaporer du carbone (du graphite, le plus souvent) dans une atmosphère de gaz rare, en général de l'hélium ou de l'argon.

    - Différentes méthodes
    -- Ablation par arc électrique
    C'est la méthode historique utilisée par Sumio Iijima. On établit en fait un arc électrique entre deux électrodes de graphite. Une électrode, l'anode, se consume pour former un plasma dont la température peut atteindre 6 000 °C. Ce plasma se condense sur l'autre électrode, la cathode, en un dépôt caoutchouteux et filamenteux évoquant une toile d'araignée très dense et contenant les nanotubes. C'est un procédé très peu coûteux et assez fiable. Cependant le processus est tellement complexe qu'au final on n'a que peu de contrôle sur le résultat. De plus, la haute température nécessaire au procédé ne permettait pas d'obtenir en grande quantité un matériau exploitable (les nanotubes ont tendance à fondre partiellement et à s'agglutiner).

    -- Ablation par laser
    Ce second procédé de vaporisation, mis au point à partir de 1992, consiste à ablater une cible de graphite avec un rayonnement laser de forte énergie pulsé ou continu. Le graphite est soit vaporisé soit expulsé en petits fragments de quelques atomes. C'est un procédé coûteux mais plus facile de contrôle, ce qui permet d'étudier la synthèse et de n'obtenir que les produits désirés.
    Ce procédé permit de faire baisser la température de la réaction à 1 200 °C.

    -- Synthèse dans un four solaire
    On concentre en fait l'énergie solaire sur le graphite pour atteindre la température de vaporisation. Ce procédé permet de synthétiser en moyenne de 0.1 g à 1 g de nanotube par «expérience».

    - Avantages et inconvénients
    - ces méthodes permettent de synthétiser des nanotubes monofeuillets (alors qu'avec les autres méthodes on obtient uniquement des nanotubes multifeuillets, ou un mélange indissociable) ;
    - elles permettent de former des produits très purs.

    Une méthode pour utiliser les produits de ces synthèses consiste à disperser les nanotubes dans une solution aqueuse grâce à des tensio-actifs (les nanotubes sont hydrophobes). La dispersion est extrudée dans une solution visqueuse contenant un polymère qui déstabilise la suspension et conduit à l'agrégation des nanotubes sous formes de rubans fins. Ces rubans, de quelques microns d'épaisseur et quelques millimètres de largeurs sont constitués de nanotubes enchevêtrés qui présentent une orientation préférentielle, due à l'écoulement. Lorsqu'on laisse sécher ces rubans à l'air, ils se contractent, l'eau contenue dans ces rubans étant évacuée par capillarité, jusqu'à former des fibres denses, utilisables pour des applications similaires à celles des fibres de carbone.

    Méthode CVD

    On part ici d'une source de carbone liquide (toluène, benzène, cyclohexane) ou gazeuse à laquelle on ajoute un précurseur métallique. On utilise fréquemment du ferrocène (C[SUB]5[/SUB]H[SUB]10[/SUB]-Fe-C[SUB]5[/SUB]H[SUB]10[/SUB]) (parfois du nickelocène C[SUB]5[/SUB]H[SUB]10[/SUB]-Ni-C[SUB]5[/SUB]H[SUB]10[/SUB]). On transforme la solution en aérosol (fines gouttelettes) transportée alors par un gaz inerte (de l'argon en général) jusqu'à un four à une température comprise entre 750 °C et 900 °C. Les nanotubes « poussent » alors, soit sur la paroi en verre du tube, soit sur une plaque de silicium (placée pour faciliter la récupération des nanotubes, on récupère après réaction la plaque où les nanotubes sont alignés). On récupère des nanotubes multi feuillets, alignés, d'une longueur d'environ 200 μm. L'apport continu de réactifs va obliger les nanotubes naissant à prendre le moins de place possible, donc de s'aligner tous dans une direction, la verticale du lieu où ils poussent, ce qui explique pourquoi on obtient des nanotubes alignés.

    Après réaction, les nanotubes contiennent encore des impuretés (principalement le métal de départ, fer ou nickel), qu'il faut éliminer. On «recuit» donc les nanotubes (sous atmosphère de gaz inerte, car la présence de dioxygène détruirait les nanotubes), ce qui a pour effet d'ouvrir les demi-fullerènes aux extrémités, permettant aux impuretés de sortir. Cette re-cuisson présente aussi l'avantage de rendre les nanotubes encore plus rectilignes, en éliminant les éventuels défauts (partie d'une couche de graphène «cassée» ce qui fait que les différentes couches s'entrechoquent).

    État de la technologie

    En juin 2005, des chercheurs du Nanotech Institute de l'université de Dallas (Texas, États-Unis d'Amérique) et de la Commonwealth Scientific and Industrial Research Organisation (Csiro, Australie) sous la houlette de Mei Zhang ont publié un article dans la revue Science indiquant qu'ils avaient mis au point une méthode permettant de produire un à sept mètres par minute de nanotubes de quelques centimètres de long et quelques dizaines de nanomètres d'épaisseur. Ce processus devrait permettre de faire tomber la principale barrière à la mise en application de cette matière, qui pourra participer à l'émergence rapide de nouveaux produits finis.

    En 2005, l'équipe de Ray Baughman de l'Université du Texas à Dallas aux États-Unis a publié une méthode permettant de produire jusqu'à dix mètres de nano-ruban par minute. Bien que l'on sache fabriquer des nano-rubans depuis quelques années, leur fabrication était jusque-là fastidieuse et longue.

    Transparents, les nano-rubans ont d'autres propriétés assez spectaculaires. Après un simple lavage à l'éthanol, le ruban ne fait que 50 nanomètres d'épaisseur et un kilomètre carré ne pèse que 30 kilogrammes.
    Cette production accélérée pourrait permettre d'utiliser les rubans de nanotube dans plusieurs domaines, comme dans l'industrie automobile (un ruban de nanotube sera coincé entre les vitres des voitures et en l'alimentant en courant, il les dégivrera) ou l'audiovisuel pour fabriquer des écrans enroulables.

    Des recherches en cours étudient la possibilité de remplacer le filament des ampoules électriques, normalement en tungstène par un nano-ruban. À température égale, le filament en nanotube aurait un rendement lumineux supérieur à celle du tungstène car en plus de l'émission lumineuse due à l'effet de corps noir se rajoute un effet de luminescence. Toutefois une commercialisation de ces ampoules n'est pas envisagée avant 2010.

    Au mois d'avril 2007, des chercheurs de l'Université de Cincinnati aux États-Unis ont annoncé avoir synthétisé des nanotubes de près de 2 cm de long, soit 900 000 fois leur section. Les chercheurs Vesselin Shanov et Mark Schulz, assistés du post-doctorant Yun Yeo Heung et de quelques étudiants ont utilisé la méthode de la déposition chimique de couches minces de matériaux par vapeur, dans un fourneau appelé "EasyTube 3000". Selon ces chercheurs, ce n'est qu'un début.

    Problèmes environnementaux et sanitaires


    Les nanotubes de carbone ont des propriétés qui suscitent beaucoup d'espoirs industriels, mais - outre leur coût élevé - en début et fin de cycle de vie notamment, ou en cas de dispersion accidentelle, les nanotubes, comme d'autres nanomolécules, présentent des risques de pollution nanométrique. Compte tenu de leur petite taille, les nanotubes peuvent facilement être absorbés par l'organisme, et compte tenu de leur caractère de cycle benzénique polymérisé, la question de l'intercalement entre les cycles d'ADN et des risques élevés de cancer en résultant sont objet à interrogations.

    Leur impact sanitaire et environnemental fait l'objet d'études. Un article du journal Langmuir de l'American Chemical Society a récemment étudié le caractère "tueur de cellules" des nanotubes par contact direct en déchirant les membranes cellulaires.
    Une étude publiée le 4 avril 2010 dans la revue Nature Nanotechnologies indique que les nanotubes de carbone ne seraient non pas bio persistants, comme on le pensait jusqu'alors, mais qu'ils seraient plutôt dégradés par une enzyme, myeloperoxidas (MPO), qui s'attaque à ces nanotubes. Elle est produite par les neutrophiles, qui constituent la majorité des globules blancs.

    En France,

    • L'Afsset a proposé un guide pour mieux détecter les situations d’expositions, avec des pistes de recherche.
    • le Haut conseil de la santé publique (HCSP) interrogé sur la toxicité des nanotubes de carbone et sur l’intérêt de protéger les travailleurs a recommandé (avis du 7 janvier 2009), en vertu du principe de précaution, que la production et l’utilisation des nanotubes de carbone soient effectuées dans des «conditions de confinement strict» afin de protéger les travailleurs et les chercheurs. Le HCSP estime que deux études récentes laissent penser qu'existe «un danger cancérogène potentiel» comparable à celui induit par l'amiante inhalée, tout en suggérant des recherches complémentaires. Le HCSP a aussi proposé une déclaration obligatoire et une obligation d'étiquetage en France pour les nanomatériaux et la mise en place rapide, à échelle européenne d'une procédure d’enregistrement et d’évaluation des risques, similaire au règlement Reach.

    Applications
    Propriétés physiques

    Grâce à leurs propriétés physiques, les nanotubes de carbone sont susceptibles à l'avenir d'être utilisés dans de nombreux domaines, notamment :

    • dans les vêtements : possibilité de faire des vêtements (normaux) plus résistants et imperméables ou dans la confection de gilets pare-balles. Il serait également possible de créer des vêtements autonettoyants.
    • dans les polyéthylènes: des chercheurs ont découvert qu'en mettant des nanotubes dans du polyéthylène, celui-ci devenait jusqu'à 30 % plus élastique.
    • dans certains équipements sportifs pour remplacer la fibre de carbone (raquettes de tennis, vélos, kayaks …)
    • dans le stockage de l'hydrogène (par absorption), notamment dans le cadre des piles à combustible; mais cette propriété est controversée.
    • dans le domaine militaire, particulièrement pour la construction de "Railgun" (canon électrique)
    Ou encore dans un domaine qui relève actuellement de la science-fiction, la construction d'un ascenseur spatial.

    Propriétés chimiques

    Il s'agit ici d'exploiter la cavité protectrice que forme le nanotube de carbone :



    • réservoirs à hydrogène (contenant ce dernier à l'état gazeux ou sous forme d'hydrure métallique), de façon à stocker celui-ci de façon plus efficace qu'actuellement (en bouteille).
    • dans les disques durs : ils serviraient de réservoirs de lubrifiant, celui-ci fondant par l'utilisation d'une nouvelle technique de chauffage par laser (modifiant les propriétés magnétiques) avant écriture[SUP].[/SUP]
    • Le 19 mai 2006, des chercheurs de l'université de Berkeley et de Livemoer, en Californie, ont trouvé une nouvelle application pour les nanotubes : ils pourraient servir à séparer différents gaz ou liquides. En effet, ces chercheurs ont démontré que les molécules passaient bien plus facilement à travers ces tubes que dans d'autres pores de taille équivalente.

    ____________________________________
    Nom de la page : Nanotube de carbone
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Nanotube de carbone de Wikipédia en français (auteurs)
    les textes sont disponibles sous licence Creative Commons paternité partage à l’identique ;

    ____________________________________



     
  11. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Fullerène


    Un fullerène est une molécule composée de carbone pouvant prendre une forme géométrique rappelant celle d'une sphère, d'un ellipsoïde, d'un tube (appelé nanotube) ou d'un anneau. Les fullerènes sont similaires au graphite, composé de feuilles d'anneaux hexagonaux liés, mais contenant des anneaux pentagonaux et parfois heptagonaux, ce qui empêche la feuille d'être plate. Les fullerènes sont la troisième forme connue du carbone.
    Les fullerènes ont été découverts en 1985 par Harold Kroto, Robert Curl et Richard Smalley, ce qui leur valut le prix Nobel de chimie en 1996.

    Premier fullerène découvert, le C[SUB]60[/SUB] est composé de 12 pentagones et de 20 hexagones, chaque sommet correspondant à un atome de carbone et chaque côté à une liaison covalente. Il a une structure identique au dôme géodésique ou à un ballon de football. Pour cette raison, il est appelé «buckminsterfullerène» (en hommage à l'architecte Buckminster Fuller qui a conçu le dôme géodésique) ou «footballène».

    Ballon de football, composé de pentagones et d'hexagones
    [​IMG]
    Description : An animated soccer ball.
    Date : 25 novembre 2006 à 15H 14
    Source : Self-published work by Pumbaa80
    Auteur : Pumbaa80
    Ce fichier est disponible selon les termes de la licence​
    ______________________________

    Historique


    L’existence du C[SUB]60[/SUB] avait été prédite par Eiji Osawa, de l’Université technique de Toyohashi en 1970. Il avait remarqué que la structure de la molécule de corannulène était un sous-ensemble d’une forme en ballon de football, et il fit l’hypothèse qu’une forme complète en ballon de football pourrait exister. Son idée fut reprise dans des journaux japonais, mais n’atteignit pas les audiences européenne et américaine.

    Dans les années 1980, Kroto et al. voulaient mieux comprendre les mécanismes de formation des longues chaînes de carbone dans l'espace interstellaire. À cette fin, ils vaporisèrent un disque de graphite par ablation laser et mirent en évidence l'existence d'agrégats particulièrement stables contenant 60 atomes de carbone. Dans des expériences de faisceaux moléculaires, des pics discrets furent observés, correspondant à des molécules avec la masse exacte de 60, de 70 ou plus d’atomes de carbone. Le 4 septembre 1985, Harold Kroto, James R. Heath, Sean O’Brien, Robert Curl et Richard Smalley découvrirent le C[SUB]60[/SUB], et rapidement après cela découvrirent les fullerènes. Kroto, Curl et Smalley furent récompensés du prix Nobel de chimie en 1996 pour leurs rôles dans la découverte de cette classe de composés.


    C[SUB]60[/SUB] et d’autres fullerènes furent plus tard observés en dehors des laboratoires : d’infimes quantités de fullerènes, sous la forme de molécules C[SUB]60[/SUB], C[SUB]70[/SUB], C[SUB]76[/SUB] et C[SUB]84[/SUB], sont produites dans la nature, dans la suie lors des combustions et dans les éclairs à travers l’atmosphère. La présence des fullerènes C[SUB]60[/SUB] et C[SUB]70[/SUB] dans l'espace fut mise en évidence en 2010 par spectroscopie infrarouge dans la nébuleuse planétaire Tc1.

    En 1991, il fut facile de produire des quantités de l'ordre du gramme de poudre de fullerène en utilisant les techniques de Donald Huffman et Wolfgang Krätschmer. Au XXI[SUP]e[/SUP] siècle, la purification du fullerène reste un défi pour les chimistes et détermine largement son prix. Les fullerènes endohédriques, par exemple, incorporent à l'intérieur de leur structure, des ions et des petites molécules. Le fullerène a un comportement inhabituel dans beaucoup de réactions organiques, telles que la réaction de Bingel découverte en 1993.

    Variations


    Depuis la découverte des fullerènes en 1985, les variations structurelles des fullerènes découverts vont au-delà des fragments eux-mêmes. Par exemple, il existe des :

    • buckyballes : le plus petit est le C[SUB]20[/SUB] (synthétisé en phases gazeuseet solide) et le plus commun est le C[SUB]60[/SUB] ;
    • nanotubes : tubes de très petites dimensions, ayant une ou plusieurs parois, avec des applications potentielles dans l’industrie électronique ;
    • mégatubes : plus grands en diamètre que les nanotubes et ayant des parois de différentes largeurs, pouvant être utilisés pour le transport de variétés de molécules de différentes tailles ;
    • polymères : chaînes à deux ou trois dimensions qui sont formées sous haute pression à des températures élevées ;
    • nano «oignons» : particules sphériques basées sur de multiples strates de carbone entourant un cœur de buckyballe, proposés comme lubrifiants ;
    • dimères liant chaîne et balle : deux buckyballes liées par une chaîne de carbone ;
    • anneaux de fullerènes.
    En 1997, les fullerènes furent trouvés dans un minéral connu sous le nom de shungite en République de Carélie, en Russie.

    Buckyballes
    - Buckminsterfullerène
    C[SUB]60[/SUB] fut nommé buckminsterfullerène en l'honneur de Richard Buckminster Fuller, un architecte renommé qui popularisa le dôme géodésique. Comme les buckminsterfullerènes avaient la même forme que celle du dôme, le nom fut considéré pertinent. La découverte de la famille des fullerènes vint après celle du buckminsterfullerène, le nom fut raccourci pour illustrer le fait que ce dernier est un type de fullerène.
    Le buckminsterfullerène (code IUPAC : (C60-Ih)[5,6] fullerène) est la plus petite molécule de fullerène dans laquelle deux pentagones ne partagent pas un côté (ce qui peut être déstabilisateur). C’est le plus commun en termes d’occurrence naturelle, puisqu’on peut le trouver dans la suie.

    La structure du C[SUB]60[/SUB] est un icosaèdre tronqué (T=3), qui ressemble à un ballon de football fait de 20 hexagones et de 12 pentagones, avec un atome de carbone au sommet de chaque polygone et une liaison à chaque côté du polygone.
    Le diamètre Van der Waals de la molécule de C[SUB]60[/SUB] est d’environ un nanomètre (nm). Le diamètre du noyau de la molécule C[SUB]60[/SUB] est d’environ0,7 nm.
    La molécule C[SUB]60[/SUB] a une longueur de liaison chimique de 2. La liaison annuaire 6:6 (entre deux hexagones) peut être considérée comme une liaison covalente et est plus courte que les liaisons 6:5 (entre un hexagone et un pentagone).
    Anecdotiquement, il est possible de manipuler le buckminsterfullerène afin de créer un matériau plus dur que le diamant. Cela devra toutefois être confirmé par d'autres expériences indépendantes.

    - Variétés
    Le C[SUB]70[/SUB] est un autre fullerène commun, mais des fullerènes avec 72, 76, 84 et même jusqu’à 100 atomes de carbone peuvent être obtenus.

    Le plus petit fullerène est le dodécaèdre régulier, C[SUB]20[/SUB]. Il n’y a pas de fullerène avec 22 sommets. Le nombre de fullerènes C[SUB]2n[/SUB] augmente avec n=12, n=13, n=14, etc. en proportion à n. Par exemple, il y a1 812 fullerènes non-isomorphiques C[SUB]60[/SUB]. Une forme de C[SUB]60[/SUB], un fullerène icosaèdre tronqué, n’a pas de paire de pentagones adjacents (le plus petit fullerène de ce type). Il y a214 127 713 fullerènes non-isomorphiques C[SUB]200[/SUB], dont15 655 672 fullerènes qui n’ont pas de pentagones adjacents.


    - Buckyballe de bore
    Des chercheurs de l’Université Rice ont avancé la possibilité de l'existence d'un type de buckyballe formée d'atomes de bore au lieu du carbone habituel. La structure B[SUB]80[/SUB] serait théoriquement plus stable que celle du C[SUB]60[/SUB]. L'une des raisons avancées par les chercheurs est que le B[SUB]80[/SUB] est plus proche de la structure du dôme géodésique popularisé par Buckminster Fuller et est formé de triangles plutôt que d'hexagones. Par la suite un modèle formé de pentagones sera créé.

    Propriétés
    Structure

    Pour qu'un fullerène soit stable, les anneaux pentagonaux ne doivent pas être adjacents. D'une façon générale, on définit les fullerènes C[SUB]2n[/SUB] comme étant des structures fermées composées de (2n-20)/2 hexagones et de 12 pentagones. La plus petite molécule sphérique répondant à cette définition est le C[SUB]60[/SUB], dont les atomes sont aux sommets d'un icosaèdre tronqué. C'est également le fullerène le plus fréquent. Les fullerènes C60 cristallisent dans le système cubique faces centrées (cfc). Le solide obtenu, à la différence du diamant et du graphite, est un solide moléculaire (cohésion cristalline de type Van der Waals), et chaque molécule C60 peut tourner librement sur elle-même.

    En termes mathématiques, la structure d’un fullerène est un polyèdre convexe trivalent avec des faces pentagonales et hexagonales. En théorie des graphes, le terme « fullerène » fait référence à tout graphe planaire régulier-3 avec toutes les faces d’une taille de 5 ou 6 (y compris la face externe). Cela correspond à la caractéristique d'Euler concernant les polyèdres, |V|-|E|+|F| = 2, (où |V|, |E| et |F| indiquent le nombre de sommets, côtés et faces), c'est-à-dire qu’il y a exactement 12 pentagones dans un fullerène et |V|/2-10 hexagones.

    Formation

    Les fullerènes sont obtenus à partir du graphite vaporisé sous une atmosphère de gaz neutre, hélium ou argon.

    Nanoparticule

    Les fullerènes possèdent une structure sphérique creuse de dimensions de l’ordre du nanomètre. Cela en fait des nanoparticules et en tant que telles, leurs propriétés chimiques doivent être étudiées différemment. Aussi, les fullerènes sont peu solubles dans l’eau (1,3×10[SUP]-11[/SUP] mg/mL), mais ils peuvent former des suspensions colloïdales et des agrégats, ce qui peut augmenter leur solubilité par un facteur allant jusqu’à 10[SUP]16[/SUP] fois. De plus, ils peuvent complexer avec la matière organique dissoute et la matière en suspension, ce qui augmente leur mobilité.

    Diffraction

    En 1999, des chercheurs de l'Université de Vienne montrent que la dualité onde-particule s'applique également à des macromolécules telles que le fullerène : il est possible de réaliser des expériences de diffraction de C[SUB]60[/SUB]. En voici la description :

    La production d'un faisceau incident de C[SUB]60[/SUB] s'effectue par sublimation à des températures entre 626,85 °C et 726,85 °C. Du fait du poids des molécules de C[SUB]60[/SUB], la gravitation a des effets non négligeables sur la trajectoire du faisceau, ce qui doit être pris en compte pour la réalisation du dispositif expérimental. Après diffraction sur l'échantillon (une grille de SiN[SUB]x[/SUB] contenant des trous de50 nm de large espacés de100 nm), les molécules de C[SUB]60[/SUB] se déposent sur un écran bidimensionnel. Leurs distributions spatiale et quantitative s’obtiennent en balayant l'écran avec un faisceau laser visible. L'absorption de la lumière ionise les molécules de C[SUB]60[/SUB] qui sont alors accélérées par l'application d'une tension électrique vers une électrode, où elles provoquent l'émission d'électrons qui constituent le signal détecté.

    Par la suite, d'autres fullerènes ont été utilisés pour des expériences de diffraction, comme le C[SUB]70[/SUB]. La température du faisceau incident joue un rôle important dans la diffraction. Si elle est trop élevée, les molécules de fullerène émettent des photons par rayonnement thermique et perdent ainsi leur cohérence : les interférences sont alors détruites.


    L’artiste de formation scientifique Julian Voss-Andreae a réalisé plusieurs sculptures évoquant la dualité onde-particule du buckminsterfullerène. Il a participé à des recherches démontrant que même des objets aussi gros que le buckminsterfullerène obéissent aux lois étranges de la physique quantique. Voss-Andreae a ensuite abandonné sa carrière de scientifique pour mener une carrière d’artiste à temps plein. Il a réalisé des objets tels qu’une structure de bronze de 60 cm de diamètre intitulée Quantum Buckyball (2004), composée de buckminsterfullerènes imbriqués. Sa plus grande sculpture de fullerènes est installée dans un parc privé de Portland, dans l’Oregon. Quantum reality (Large Buckyball Around Trees) (2007) est une structure en acier de 9 m de diamètre à travers laquelle s’entrecroisent des arbres qui poussent librement et la maintiennent en l’air, juste au-dessus de notre portée.

    Usages


    Les fullerènes sont le deuxième type de nanoparticules le plus utilisé après celles d’argent. Leurs propriétés de structure, conductrices et lubrifiantes font qu’ils sont utilisés dans plusieurs champs d’activités. Parmi ceux-ci, on retrouve les domaines de la pharmaceutique, des produits cosmétiques, de l’électronique et de la photovoltaïque.

    Méthodes de dosage dans l’eau


    Avec l’augmentation de l’utilisation des fullerènes dans les produits de consommation, il devient préoccupant de connaître les effets de ces particules dans l’environnement et chez les organismes vivants. Cependant, afin de pouvoir tester leurs effets, il faut aussi être capable de les doser efficacement.

    Plusieurs techniques de dosage sont utilisées dans le dosage des fullerènes, notamment la chromatographie liquide à haute performance par détection UV-vis et la chromatographie liquide à haute performance à détection par spectrométrie de masse en tandem.

    Chromatographie liquide à haute performance par détection UV-vis (HPLC-UV-vis)

    L’expérience doit être faite à pH et force ionique contrôlés et constant, car ces deux facteurs peuvent grandement modifier le comportement des fullerènes dans le milieu. De plus, les échantillons ont été agités par barreau magnétique pendant 13 jours avant l’expérience afin de s’assurer que les particules sont bien en suspension lors de l’analyse.

    - Extraction
    L’extraction des fullerènes peut prendre différentes formes : soit une extraction liquide/liquide, soit une extraction sur phase solide (SPE).

    Dans le premier cas, à un aliquote de l’échantillon d’eau, il faut ajouter 1/10 du volume en perchlorate de magnésium (Mg(ClO[SUB]4[/SUB])[SUB]2[/SUB])1 M et un volume égal de toluène. Le perchlorate de magnésium permet de déstabiliser la suspension aqueuse de fullerène et aide au transfert des molécules vers le toluène. Le mélange est agité, puis les phases sont séparées et le toluène est évaporé afin de diminuer le volume. Cette étape doit être faite trois fois pour obtenir une meilleure récupération. L’échantillon est ensuite prêt à être analysé.

    L’extraction sur phase solide est faite sur une cartouche en phase inverse de type C18 (par exemple, Waters C18 Sep-Paks). La cartouche est d’abord conditionnée avec du méthanol et de l’eau doublement déionisée. Ensuite l’échantillon d’eau auquel est mélangé 1/10 du volume en perchlorate de magnésium (Mg(ClO[SUB]4[/SUB])[SUB]2[/SUB])1 M (10 mL d’échantillon pour1 mL de Mg(ClO[SUB]4[/SUB])[SUB]2[/SUB]1 M) est passé sur la colonne. Celle-ci est lavée avec du méthanol et de l’eau doublement déionisée. Finalement, l’analyte est extrait avec un faible volume de toluène pour être analysé.

    - Dosage et résultats
    Après extraction, l’échantillon est passé au HPLC sur une colonne en phase inverse (4,6 mm x150 mm Cosmosil 5μ PYE) avec une phase mobile 80:20 (v:v) de toluène : méthanol. Les fullerènes sont ensuite détectés par colorimétrie en UV-visible à environ 330 nm.

    La technique d’extraction liquide/liquide permet d’obtenir des pourcentages de récupération de l’ordre de 85 % pour différents fullerènes (C[SUB]60[/SUB], C[SUB]70[/SUB], PCBM) et cet autant dans l’eau doublement déionisée que dans l’eau naturelle de surface et souterraine. L’extraction sur phase solide permet d’obtenir des résultats assez semblables pour des composés comme le C[SUB]60[/SUB] et le C[SUB]70[/SUB], mais pas pour le PCBM qui est un fullerène portant un groupement fonctionnel à sa surface. Cela est attribué notamment à sa plus grande solubilité dans les solvants polaires utilisés lors du lavage de la cartouche.

    Cette technique permet de doser efficacement et avec assez de précision les fullerènes dans les milieux artificiels (laboratoire) et les milieux naturels (environnement).


    Chromatographie liquide à haute performance à détection par spectrométrie de masse en tandem (LC-MS/MS)
    - Extraction
    Les échantillons d’eau ont tout d’abord étés filtrés sur deux filtres0,45 μm. Une fois séchés, les filtres ont été extraits avec du toluène, puis les échantillons sont passés au bain à ultrasons pour créer une suspension de fullerènes. La solution est ensuite préconcentrée sous vide puis du méthanol est ajouté (2:1, v:v, toluène méthanol). L’échantillon est ensuite analysé.

    - Dosage et résultats
    Après extraction, l’échantillon est passé au HPLC sur une colonne en phase inverse (Purispher Star RP-18 (125 mm x2,0 mm 5 μm)) avec une phase mobile 1:1 (v:v) toluène : méthanol. Puis il est passé au spectromètre de masse en tandem avec une ionisation par nébulisation électrostatique en mode négatif. Les ions mesurés correspondent aux oxydes soit le C[SUB]60[/SUB]O[SUP]-[/SUP] et le C[SUB]70[/SUB]O[SUP]-[/SUP] ayant des rapports masse sur charge (m/z) de 720,7 et 840,8 respectivement.

    Les pourcentages de récupération obtenus sont de l’ordre de 75 % avec des limites de quantification de la méthode de l’ordre du dixième de ng/L avec une bonne répétabilité et reproductibilité (de 1 à 5 % RSD). L’analyse d’échantillons naturels prélevés à la sortie d’usines de traitement des eaux usées au nord-est de l’Espagne a permis de trouver des concentrations allant jusqu’à près de 20 μg/L de C[SUB]60[/SUB], bien que la majorité des analyses aient donné des résultats inférieurs aux limites de détection. Les principaux facteurs permettant d’expliquer ces concentrations sont, dans un premier temps, la population de la région visée, mais surtout le type de traitement que subissent les eaux usées. Les régions combinant plusieurs types de traitement ont pour la plupart présentées des quantités de fullerènes inférieures à celles utilisant une seule méthode.

    Cette technique permet de doser les fullerènes dans l’eau et de les doser dans des échantillons à matrice complexe (des eaux naturelles), ce qui facilite leur manipulation et par le fait même leur dosage.



    _________________________
    Nom de la page : Fullerène
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Fullerène de Wikipédia en français (auteurs)
    les textes sont disponibles sous
    licence Creative Commons paternité partage à l’identique

    _________________________


    Buckminsterfullerène


    Le buckminsterfullerène, parfois également appelé footballène est une molécule sphérique en C[SUB]60[/SUB] de la famille des fullerènes C[SUB]2n[/SUB], structures fermées composées de (2n-20)/2 hexagones et de 12 pentagones. C'est la plus petite du groupe, dont les atomes sont aux sommets d'un icosaèdre tronqué, i.e. forment la même structure qu'un ballon de football. C'est également le fullerène le plus fHistoire


    Découvert par Harold Kroto, Robert Curl et Richard Smalley prix Nobel de chimie en 1996, il est nommé ainsi en l'honneur de Buckminster Fuller, architecte américain, inventeur du dôme géodésique.

    Structure


    Le buckminsterfullerène a une structure fermée composée de 20 hexagones et 12 pentagones, aux sommets desquels se trouvent les atomes de carbone. Chaque pentagone est entouré de cinq hexagones.

    Le groupe de symétrie ponctuelle du C[SUB]60[/SUB] est 53m en notation de Hermann-Mauguin (I[SUB]h[/SUB] en notation de Schoenflies) : tous les atomes de carbone occupent des sites équivalents.
    Les liaisons covalentes doubles 6:6 (entre deux hexagones) sont plus courtes que les liaisons simples 6:5 (entre un hexagone et un pentagone) : 0,140 nm pour les liaisons 6:6 et 0,146 nm pour les liaisons.


    Applications


    Cette molécule est très utilisée en nanotechnologies, en particulier comme roues dans la fabrication de nanomachines (nanovoitures, nanodragsters, etc.).

    Le C[SUB]60[/SUB] a aussi la propriété rare et remarquable de former, avec le tétrakis(diméthylamino)éthylène, un aimant purement organique en dessous de 16,1 K.
    Anecdotiquement, il est possible de manipuler le buckminsterfullerène afin de créer un matériau plus dur que le diamant. Cela devra toutefois être confirmé par d'autres expériences indépendantes.


    ________________________



     
  12. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Nanocristal



    Un nanocristal est un monocristal dont au moins une des dimensions est inférieure à 100 nm.

    Pour les nanocristaux de semi-conducteurs, pour des dimensions inférieures à 10 nm on parle souvent aussi de point/boite quantique (ou quantum dot, ou encore qdot).

    Un monocristal ou matériau monocristallin est un matériau solide constitué d'un seul et unique cristal, par opposition avec un polycristal ou matériau polycristallin, constitué lui d'une multitude de petits cristaux de taille et d'orientation variées.


    Effet induit par l'échelle nanométrique


    À cause de sa petite taille, il se comporte comme un puits de potentiel qui confine les électrons dans trois dimensions, dans une région d'une taille de l'ordre de la longueur d'onde des électrons selon (de Broglie), soit quelques nanomètres dans un semi-conducteur.

    Ils sont à comparer aux fils quantiques (en 2 dimensions) et aux puits quantiques en 1 dimension.

    À cause du confinement, les électrons du nanocristal ont des niveaux d'énergie discrets et quantifiés, de façon similaire à un atome. Pour cette raison les nanocristaux sont parfois appelés «atomes artificiels». Les niveaux d'énergie peuvent être contrôlés par le changement de la taille et de la forme du nanocristal, ainsi que par la profondeur du potentiel.


    Nanocristal de semi-conducteur


    Un tel cristal présente des propriétés de fluorescence qui le rendrait intéressant pour de nouvelles formes d'imagerie moléculaire, mais en raison de sa taille, il pose cependant probablement des problèmes de toxicité (nanotoxicité) telle qu'il semble pour l'instant difficile à utiliser en imagerie médicale (sauf sur culture cellulaire, hors du corps).

    Un nanocristal entouré d'un ligand judicieusement choisi peut cibler certaines molécules d'intérêt. Quand il absorbera un photon, ce photon fera passer un électron dans la bande de conduction en faisant un trou dans la bande de valence, créant une paire électron-trou dite exciton. Cet exciton se recombinera ensuite en libérant un photon de fluorescence que l'on observera avec un filtre approprié à sa longueur d'onde, et un matériel d'amplification lumineuse. Les nanocristaux de semi-conducteurs ont quelques caractéristiques les rendant intéressants pour l'imagerie moléculaire :


    • leur coefficient d'absorption est plus élevé que ceux des colorants organiques aujourd'hui utilisés ;
    • ils sont plus stables (éclairés, ils peuvent continuer à émettre une lumière fluorescente durant plusieurs minutes, voire pour certains plusieurs heures) que les colorants organiques (qui photo blanchissent (i.e. perdent leur capacité de fluorescence) dans les quelques secondes suivant leur éclairement ;
    • ils ont de bons rendement de fluorescence (jusqu'à 80 % de la lumière absorbée est rendue sous forme de fluorescence) ;
    • les plus petits émettent dans le bleu et les plus "gros" dans le rouge ;
    • on sait de mieux en mieux les solubiliser dans l'eau et les conjuguer à des molécules-cibles via des ligands organiques qu'on leur a préalablement associés.

    ____________________________
    Nom de la page : Nanocristal
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Nanocristal de Wikipédia en français (auteurs)
     
  13. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Buckypaper


    Le buckypaper (que l'on peut traduire par «feuille de buckyballes») est une feuille mince composée d'un assemblage de nanotubes. Elles servaient originalement comme moyen pour manipuler les nanotubes, mais elles sont en 2008 étudiées par différents groupes de recherche et testées dans le but de créer des applications dans différents domaines, tels l'aérospatiale, la protection contre les interférences électromagnétiques et les futures générations de produits électroniques.

    Synthèse


    La méthode la plus fréquente pour créer un buckypaper, un film de nanotubes, utilise un surfactant non-ionique, tel que le Triton X-100 et du Laurylsulfate de sodium, ce qui améliore leur dispersion dans des solutions aqueuses, créant une suspension. Ces suspensions peuvent être filtrées à travers une membrane filtrante en appliquant une pression positive ou négative dans le but d'obtenir un film uniforme.

    Les forces de Van der Waals entre la surface des nanotubes et le surfactant sont souvent fortes en terme mécanique et souvent stables, il n'y a donc aucune assurance pour que tout le surfactant soit éliminé du film après que le buckypaper ait été synthétisé. Si le film est lavé au méthanol, solvant efficace pour éliminer le Triton X, alors le film devient craquelé et se déforme. Également, le Triton X peut causer la lyse des cellules et causer indirectement l'inflammation des tissus, même à basse concentration.

    Dans le but d'éliminer les conséquences nocives causées par la présence possible de surfactants, une méthode alternative de fabrication a été développée : la frit compression, qui ne requiert pas de surfactants (tensioactif) ni de travail de surface. Les dimensions du film peuvent être contrôlées par le biais de la taille du tube de la seringue et de la masse de nanotubes ajoutés.

    L'épaisseur des films obtenus par frit compression est typiquement plus élevée que ceux fabriqués à l'aide de surfactants : des feuilles ayant une épaisseur entre 120 μm et 650 μm ont été ainsi synthétisées. Bien qu'il n'existe pas de nomenclature pour catégoriser les films selon leur épaisseur, les films ayant une épaisseur supérieure à 500 μm sont qualifiés de buckydiscs (que l'on peut traduire par «disque de buckyballes»). Au-delà d'une épaisseur de 5 mm, le produit est qualifié de buckycolumn (que l'on peut traduire par «colonne de buckyballes»). La frit compression permet de rapidement créer des buckypapers, des buckydiscs et des buckycolumns, tout en recouvrant les solvants ayant servi à la synthèse des films et en contrôlant la géométrie en 2D et en 3D.

    Propriétés


    Lorsqu'empilé pour former un matériau composite, le buckypaper pèse le dixième de l'acier tout en étant potentiellement 500 fois plus solide. Il conduit la chaleur comme du laiton ou de l'acier, tout en conduisant l'électricité comme un métal ou du silicium. Le scientifique Wade Adams de l'Université Rice affirme que «[t]outes ces propriétés sont ce que plusieurs chercheurs en nanotechnologie ont tenté d'atteindre alors qu'ils cherchaient une sorte de graal».


    ____________________________
    Nom de la page : Buckypaper
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Buckypaper de Wikipédia en français (auteurs)
     
  14. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Nanorobot


    Un nanorobot (ou nanobot) est un robot dont les composants sont à une échelle naine (10[SUP]-9[/SUP] mètres), fabriqué grâce aux nanotechnologies émergentes. Plus particulièrement, la nanorobotique fait référence au domaine d'ingénie qui s'intéresse au dessin et à la construction des nanorobots, dont leurs dimensions varient entre 0,1 et 10 micromètres et qui ont des composants nains, moléculaires ou à base d'ADN.

    En général de telles machines sont à l'étape de recherche, mais quelques appareils moléculaires ont été mis à l'épreuve. Un exemple est un détecteur ayant un interrupteur de 1,5 nm de largeur, capable de compter des molécules précises dans un échantillon chimique. Les nanorobots pourraient trouver leur première application utile dans la médecine, servant à repérer et anéantir des cellules cancéreuses. Une autre application possible serait de détecter des produits chimiques toxiques dans l'environnement et mesurer leur concentration. L'université Rice a créé une voiture à molécule unique avec des buckminsterfullerènes en guise de roues, produite par un processus chimique.


    Une autre définition serait un robot capable d'interactions précises avec des objets microscopiques, ou capable d'effectuer des manipulations à l'échelle naine. De tels appareils appartiennent plutôt à la microscopie ou microscopie à sonde locale. Par conséquence, même un grand appareil, tel qu'un microscope à force atomique peut se considérer comme un outil nanorobotique lorsqu'il est configuré à effectuer des manipulations à l'échelle naine. Également, on peut ajouter à cette catégorie des robots de grande taille capables quand-même de bouger avec une telle précision.

    Théorie nanorobotique


    Selon le physicien Richard Feynman, c'était son ancien étudiant de troisième cycle et collaborateur Albert Hibbs qui lui avait d'abord suggéré (env. 1959) l'utilisation des machines menues (envisagées par Feynman) à des fins médicales. Hibbs suggéra que certaines machines réparatrices pourraient rapetisser jusqu'au point où il serait théoriquement possible de (comme le dit Feynman) avaler le médecin. L'idée se trouva incorporée dans sa dissertation de 1959 titré «Il y a plein de place au fond

    Puisque ces robots seraient d'une taille microscopique, il en faudrait sans doute une grosse quantité en collaboration afin d'effectuer des tâches sur une échelle macroscopique.


    Une discussion théorique approfondie, traitant des questions de dessin (détection, alimentation, orientation, maniement, déplacement et calculs faits à bord) est présentée dans le contexte médical par Robert Freitas. Certaines discussions restent au niveau de l'irréalisable et n'approchent pas du niveau du génie spécifique.

    Applications

    Des applications dans le domaine médical sont envisageables. Par exemple, le système animé par des fibres musculaires pourrait aider les patients dont les nerfs phréniques sont endommagés, ayant donc du mal à respirer, à utiliser leurs propres fibres cardiaques, en forçant leur diaphragme à se contracter. Placés dans le corps humain, ces bio-robots feraient fléchir un matériau piézo-électrique plutôt qu'un fil de silicium et l'émission de décharges de quelques millivolts stimulerait les nerfs phréniques.

    Parmi les plus intéressantes applications hypothétiques des nanorobots, on dénote la construction de nanomachines hypercomplexes et multifonctionnelles qui permettraient la reconstruction de tissus vivants par une simple injection sous-cutanée. Ces nanorobots, assez petits pour entrer dans une cellule vivante, pourraient remplacer ou réparer les organites, modifier les acides nucléiques — donc le code génétique — ou effectuer d’autres tâches impossibles sans une micro-chirurgie invasive. On peut aussi s'imaginer que les nanorobots pourraient guérir les cancers, en détruisant les cellules qui dégénèrent.


    Formes et approches


    • Biopuce
    • Machine nucléique
    • À base de bactéries
    Exemple en œuvre

    La revue britannique New Scientist, dans son numéro du 28 février 2004, a annoncé que le chercheur américain Carlos Montemagno et ses collègues de l’université de Californie (Los Angeles) ont mis au point un nanorobot animé à partir d’un muscle cardiaque de rat. Cette «machine», constituée d'un fil de silicium en arc de voûte au-dessous duquel sont attachées les fibres cardiaques, n'est pas plus épaisse qu’un cheveu humain. Ce nanorobot a pu ramper à une vitesse de l'ordre de 40 micromètres par seconde grâce au glucose, source d'énergie du muscle. En pliant et dépliant la voûte, la contraction et le relâchement des fibres musculaires permettent ainsi le mouvement.

    Science-fiction


    Les nanorobots sont un thème récurrent dans les univers de science-fiction. Les essaims de nanorobots, y compris les réplicateurs au cœur du brouillard utilitaire ou de la gelée grise, se dépeignent dans plusieurs œuvres de science-fiction tels que Star Trek ou l'Au-delà du réel.

    Certains partisans de la robotique naine, en réponse à l'émoi suscité par la supposition d'une gelée grise, soutiennent que des nanorobots capables de se répliquer en dehors d'une usine close ne constituent nullement un volet nécessaire de la technique, et que l'autoréplication si jamais mise au point, pourrait être dotée de sauvegardes de sûreté. De plus, ils affirment que leurs plans actuels du développement et utilisation da la fabrication moléculaire ne comprennent pas de réplicateurs en liberté.



    __________________________

    Nom de la page : Nanorobot
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Nanorobot de Wikipédia en français (auteurs)
    Les textes sont disponibles sous licence Creative Commons paternité partage à l’identiq

     
  15. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Nanomédecine


    La nanomédecine, nanomedicine en anglais, est l'application médicale de la nanotechnologie et de la recherche apparentée. Elle couvre les domaines de l'administration de médicaments sous forme de nanoparticules et les possibles applications futures de la nanotechnologie moléculaire (MNT).

    L'idée de l'utilisation de nanomédicaments est de modifier la distribution de la molécule active dans l'organisme, ce faisant il est alors théoriquement possible d'accumuler la molécule active sur ses sites d'actions pharmacologiques et de l'éloigner des sites sur lesquels elle pourrait avoir des effets non désirés ou effets secondaires. Les nanomédicaments, en plus d'améliorer l'efficacité du traitement permettent aussi dans une certaine mesure d'améliorer le diagnostic, car ils peuvent apporter un élément détectable sur une zone d'intérêt comme une tumeur par exemple. Lorsque diagnostic et thérapeutique sont couplés dans le même système, on parle de théranostique.

    Les domaines d'applications des nanomédecines en santé sont très variés, la cancérologie est un des domaines où l'on trouve le plus d'applications du fait des possibilités de ciblage, ou vectorisation, des tumeurs offertes par les nanoparticules. Les objets thérapeutiques utilisés en nanomédecines ont une taille inférieure au micromètre et bien souvent inférieure à 200 nanomètres (200 milliardièmes de mètre).

    On trouve par exemple des nanoparticules, des nanocapsules, des liposomes, des micelles, qui sont issus des nanotechnologies. Pour former à ces domaines très techniques, il existe aujourd'hui des Masters spécifiques et des programmes de thèses d'Université qui préparent à des poste en Recherche et développement dans l'industrie pharmaceutique mais aussi à des la recherche fondamentale ou appliquée dans les grands organismes de recherche comme l'Inserm.

    Nanomédecin

    Un nanomédecin est un nanorobot assez petit pour entrer dans un corps humain et le soigner en éliminant directement tous les microbes ou virus. Les nanomédecins sont, pour l'instant, encore en développement, ce qui explique pourquoi il n'y a que très peu d'informations disponibles à ce sujet. Un nanomédecin peut aussi être appelé un nanodocteur .

    Nanomachine

    Les nanomachines sont de minuscules machines théoriques. Leur taille est de l'ordre du nanomètre.
    Elles travaillent directement sur les atomes, pour construire ou détruire des molécules, des objets.
    Leur existence est problématique, car il est difficile de trouver un moyen commode de les alimenter efficacement en énergie et en matières premières, en raison de leur petite taille.

    Elles utilisent des systèmes supramoléculaires, définis par le CEA comme des « édifice de taille nanométrique, constitué de plusieurs molécules qui sont assemblées par des interactions non covalentes ou faibles, ou de plusieurs motifs (modules) différenciés effectuant chacun une fonction spécifique ».

    En revanche, la nanotechnologie actuelle utilise avec grands succès des nanomécanismes sur des macromachines, en fabrication de processeurs par exemple.

    Aspects éthiques


    Le développement et l'utilisation de nanomachines pourra poser des problèmes éthiques Elles peuvent passer totalement inaperçue de par leur taille.
    On estime qu'une mauvaise utilisation de cette technologie pourrait peut-être un jour permettre de contrôler totalement une personne. (Dans la série de jeux vidéo Metal Gear Solid, les nanomachines jouent un rôle important, et ce problème est justement souvent mis en avant, dans la science-fiction également)


    _______________________________

    VOIR AUSSI/

    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=402

    _______________________________

    SUITE ET FIN/

    Débat sur les nanotechnologies

     
  16. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113


    Débat sur les nanotechnologies


    À l'instar des autres innovations scientifiques telles que les OGM, la téléphonie mobile, et le nucléaire, les nanoparticules font l'objet d'une controverse publique.

    Les développements actuels des sciences permettent d'explorer, à l'échelle du nanomètre, des domaines d'interfaces entre les différentes techniques : étudier et développer des techniques mettant en œuvre des procédés nanométriques impliquant à la fois des aspects chimiques, physiques et biologiques et notamment modifier la matière à l'échelle de l'atome. Ces techniques sont regroupées sous le terme de nanotechnologies.

    Si les études et techniques qui mettent en œuvre ces procédés sont utilisées depuis de nombreuses années en chimie, en physique ou en biologie, les progrès annoncés comme considérables dans de nombreux domaines ont donné naissance à un débat sur les nanotechnologies. Ce débat concerne tout aussi bien des questions sanitaires et éthiques, que la notion de gestion des risques industriels ou encore le principe de précaution.

    Le développement de ces technologies, qui pourrait annoncer une nouvelle révolution industrielle, est aussi, selon leurs critiques, l'occasion de remettre en question la position des sciences et de la libre entreprise dans une démocratie et de reprendre un débat presque aussi vieux que l'humanité : préciser la place des inventions humaines par rapport à l'homme - préciser la position de l'inventeur par rapport aux autres.

    Débats économiques et techniques
    Enjeux économiques
    Posé en termes économiques, le débat sur les nanotechnologies s'attache à poser les coûts et les bénéfices attendus pour en tirer un rapport risque/bénéfice.
    Le marché de ces nouvelles technologies est estimé à plusieurs milliards de dollars à l’horizon 2015. La course aux brevets qui existe déjà dans la matière macroscopique, ainsi que dans la recherche nucléaire s'étend donc aussi au monde des nanotechnologies.

    Enjeux techniques et d'innovation
    Au-delà des nanorobots et de l'interface vivant-inerte le champ des applications des nanotechnologies est vaste, concernant pratiquement la totalité des secteurs industriels.

    Les nanotechnologies peuvent permettre la production de matériaux plus solides et plus légers que ceux actuellement produits (acier, aluminium, etc.) à un coût similaire - voire inférieur. Ils intéressent notamment l'industrie aéronautique (ils sont par exemple utilisés sur les airbus A380 et A350) et automobile.

    La généralisation de l'usage de ces matériaux bouleverserait l'industrie traditionnelle d'extraction et de production de matériaux. L'industrie minière, essentiellement située dans des pays du tiers monde, pourrait être affectée.

    Les déchets des produits industriels pourraient être directement désassemblés en leurs éléments constitutifs, faisant du recyclage une des principales formes de production de matières premières. La même application pourrait valoir aussi pour la pollution en général.
    Inversement, des risques liés à la généralisation de nanoparticules dans les matériaux peuvent apparaître lors de la dégradation naturelle des produits.


    Gestion de risques
    La recherche civile sur les nanotechnologies explore de nombreux axes jugés prometteurs, en tenant compte de la gestion des risques. Cependant, alors que les investissements financiers privés et publics dans ces technologies sont considérables, moins de 5% des budgets sont consacrés à l'évaluation des risques.

    Débats de santé publique
    Données de nanotoxicologie
    La nanotoxicologie est la branche de la toxicologie qui étudie l'impact des nanotechnologies sur la santé des êtres humains.

    Dans un rapport publié fin 2008, l'Agence française de sécurité sanitaire de l’environnement et du travail (Afsset) juge que, compte tenu de sa jeunesse, la nanotoxicologie fournit «des résultats encore peu nombreux, disparates et parfois contradictoires».

    La nanotoxicologie s'attache à étudier les trois voies possibles d'exposition de l'Homme aux nanotechnologies : voie cutanée, digestive et respiratoire. Parmi les résultats les plus marquant des études scientifiques, le quotidien économique français Les Echos relève, à la suite de l'Afsset, l'exposition par voie respiratoire : «les nanoparticules pourraient traverser la barrière de l'épithélium pulmonaire pour atteindre la circulation sanguine et les ganglions lymphatiques et se répartir ensuite dans l'organisme, franchir la barrière placentaire».


    Applications cosmétiques
    Dans les produits cosmétiques, les nanotechnologies sont utilisées sous forme de nanoparticules. Des actifs sont encapsulés dans ces nanoparticules pour leur donner de nouvelles propriétés. Elles améliorent ainsi le pouvoir couvrant, adhérent et pénétrant des produits cosmétiques. En d’autres termes elles augmentent l’efficacité des cosmétiques. Par exemple, on utilise sous forme de nanoparticules l’oxyde de titane pour éviter le blanchiment de votre peau lorsque vous vous enduisez de crème solaire. On encapsule aussi les vitamines E pour leur permettre de passer la barrière cutanée. De nombreuses marques ont annoncé les nanotechnologies comme une révolution cosmétique, mais faire passer la barrière cutanée à des actifs est-il bien neutre pour la santé ? Les nanotechnologies sont récentes, leurs effets sur la santé ne sont pas bien connus puisque jusqu’à lors très peu d’études ont été effectuées sur le sujet. Certaines études ont néanmoins d'ores et déjà alerté la communauté scientifique quant à la toxicité de ces particules. Des chercheurs américains ont mis en évidence les possibles dangers des nanoparticules (présentes notamment dans des crèmes solaires) pour les voies respiratoires, où leurs effets seraient comparables à ceux de l'amiante.

    En France, des produits courants utilisent des nanotechnologies. C'est le cas de certains savons ou huiles solaires. L'étiquetage ne précise pas la présence d'éléments issus des nanotechnologies.

    Le groupe de cosmétiques L'Oréal a mis en avant la présence de tels éléments dans certaines de ses publicités et a ensuite renoncé à un tel affichage. Une des raisons possible de ce revirement est le risque d'une contre-publicité liée à la présence d'éléments issus des nanotechnologies.

    En 2006, l'association écologiste Amis de la Terre ont rappelé que certains des plus grands noms des cosmétiques, comme L’Oréal, Revlon ou Estée Lauder, continuent de vendre des produits contenant des ingrédients nanotechnologiques alors qu’il y aurait de plus en plus de preuves que ces matériaux peuvent être toxiques pour les humains.

    En 2004, un rapport de la Royal Society britannique recommandait que “les composants sous forme de nanoparticules devraient être soumis à une étude de risque complète menée par le conseil scientifique adéquat, avant quelles ne soient autorisées à être utilisées dans des produits”.

    Applications médicales
    L'industrie médicale est habituée à la gestion des risques sanitaires. Elle manipule au quotidien des substances toxiques ou de natures biologiques , chimiques et nucléaires . Malgré les accidents, ces techniques ont prouvé leur efficacité sur le long terme ainsi que leurs limites.

    Étant de taille adaptées aux cellules, les nano-technologies trouvent leur place dans l'équipement médical et dans les recherches médicales. Différents axes de travail sur la lutte contre le cancer sont explorés.

    Débats éthiques


    De nombreux théoriciens ont réfléchi aux implications de la science pour l'Homme, notamment Jacques Ellul, en 1977, dans Le système technicien (Calmann-Lévy). Pour eux, à l'instar des OGM ou de l'énergie nucléaire, les nanotechnologies ne relèvent pas du domaine strictement scientifique, car la science a une influence (négative comme positive) sur notre vie quotidienne.

    Débat juridique
    Depuis peu, les juristes commencent à formuler des problématiques juridiques à propos des nanotechnologies: quelques articles sont parus à la suite de l'avis du Conseil national d'éthique de février 2007. Ils traitent du principe de précaution, du droit à l'information, de la responsabilité, des libertés publiques, de la propriété intellectuelle...

    Applications de sécurité et débat sur la vie privée
    Les nanotechnologies permettraient d'étendre les possibilités dans le traçage des personnes et la biométrie.

    Le marché de la biométrie est en pleine croissance à la fin des années 2000. L'existence de puces d'identification n'est pas nouvelle et est largement utilisée au quotidien (en 2008). C'est par exemple sur de tels principes que reposent certains systèmes d'abonnements à des transports en commun : des puces sont approchées d'une borne qui en modifie le contenu et, par exemple, valide un trajet. Seule la miniaturisation plus importante dont ces puces font l'objet est nouvelle. C'est cette miniaturisation ainsi que la propagation de ces puces qui font l'objet de critiques. En l'état des recherches, l'utilisation de telles puces n'est néanmoins possible qu'à très faible distance : il n'est possible d'activer ces puces qu'en les approchant d'un détecteur. Par ailleurs, des puces sous-cutanées sont déjà employées pour identifier des animaux ou des personnes volontaires. On l'utilise par exemple sur certains prisonniers, à qui on propose le système en échange d'une liberté conditionnelle. En Espagne, une boîte de nuit utilise le système pour fidéliser sa clientèle, en offrant des cadeaux en contrepartie.

    De telles applications ne font pas l'unanimité. Les critiques portent :

    • sur les conséquences pour les libertés individuelles.
    • sur les modalités de mise en œuvre.
    Selon certains, ces technologies engagent la société dans un modèle « sécuritaire », que le peuple n'aurait pas eu la possibilité de choisir par la voie démocratique car on ne lui en aurait pas présenté tous les enjeux. Les opposants posent la question du pouvoir de décision du peuple sur les choix technologiques dans le cadre des systèmes démocratiques.

    Ses applications en matière de sécurité relèvent de la loi, dont certains réclament une adaptation, et des instances de régulation, telle la CNIL en France.

    Des opposants aux nanotechnologies affirment que les médias semblent aujourd'hui être incapables d'esprit critique vis-à-vis des nanotechnologies. Pour eux, il semble plutôt que l'opinion est préparée pour n'en voir que le «bon côté», c’est-à-dire les simplifications de la vie quotidienne et certaines baisses de coûts.

    Est dénoncé aussi le parti pris apparent des gouvernements pour les nanotechnologies considérant les subventions qui sont octroyées à ce domaine.

    Enfin, une branche de ces opposants milite, non pour un simple contrôle citoyen de ces technologies, mais pour leur interdiction totale à cause selon eux du trop grand nombre de risques et des trop faibles avantages pour la population.


    Applications militaires
    Parmi les applications étudiées par l'armée française dans les années 2000 : le programme FELIN d'équipement du fantassin, nano-capteurs, missiles «intelligents», micro-drones, armes chimiques nano-encapsulées, etc. Ces applications ne relèvent pas à proprement parler des nanotechnologies, mais essentiellement de macrotechnologies déjà existantes.
    Selon le philosophe des sciences Jean-Pierre Dupuy, les nanotechnologies sont « un nouvel avatar de la course aux armements» : «Les nano-armes seront à la bombe atomique ce que celle-ci était à la fronde». Pour lui, c'est la notion même d'éthique qui ne peut plus être la même après l'avènement des nanotechnologies.

    Le débat s'est encore approfondi suite à l'opération militaire israélienne contre Gaza entamée en décembre 2008 suite à laquelle certaines organisations accusent Tsahal d'avoir eu recours à des armes de nouvelle génération contenant du fullerène.


    Débats sur l'évolution de l'humanité
    - Craintes d'hybridation et de transhumanisme
    Les nanotechnologies ont aussi soulevé des questions philosophiques et éthiques liées au remplacement de l'homme par les robots, à la mutation de l’homme, à son hybridation avec la technique. On parle alors de transhumanisme. Le dépassement de l'Homme par une forme de vie et d’intelligence supérieure est envisagé par certains.

    - Théorie controversée de la « gelée grise » et de la «gelée verte»
    Au travers de la nanotechnologie, des «engins de création», les assembleurs moléculaires, seraient capables d’assembler, atome par atome, n'importe quel objet - à commencer par des répliques d’eux-mêmes. Eric Drexler, dans son livre, Engins de création, envisage cette hypothèse aussi appelée «grey goo», c'est-à-dire «gelée grise». En août 2004, dans un article intitulé Safe exponential manufacturing paru dans le Nanotechnology journal, Eric Drexler revient sur ses propos. Il souligne qu'un accident de type «gelée grise» ne pourrait plus se produire, car la fabrication moléculaire n'aurait plus intérêt à faire appel à des nano-robots auto-reproductibles et donc n'envisagerait pas de développer ces technologies.

    Un autre danger possible mis en avant vient d'une convergence entre applications nanotechnologiques et les biotechnologies. L'expression employée est alors «gelée verte» pour faire référence aux molécules organiques des plantes. Il est imaginable que certaines combinaisons entre la biologie et la nanotechnologie révèlent des risques insoupçonnés, d'où l'intérêt d'un principe de précaution renforcé. À cela d'autres avancent que le danger de cette potentielle «gelée verte» pourrait être contre-carré par les lois naturelles de l'évolution qui équilibrent l'écosystème.

    Il convient ici de séparer deux niveaux : macro-démographique (l'ensemble de la population) et micro-démographique (effets sur une ou plusieurs parties de la population). Le risque sur l'ensemble de la population humaine est considéré comme négligeable, alors que les effets à court terme sur une partie de la population pourrait s'avérer être plus graves (pandémies, famines, etc.).

    La reproduction et la propagation des nanorobots sont limitéed par les sources d'énergie et de matières premières. Or, quelles mesures devrions-nous adopter pour contrer ces probabilités si nous développions des nanorobots utilisant la lumière comme source d'énergie?

    Enfin, de même que des semences OGM vendues par Monsanto sont stériles afin d'obliger les agriculteurs à renouveler leur paiement de graines chaque année, on peut craindre que des droits de reproduction soient exigés par les concepteurs des nanomachines, ou qu'ils les restreindrons pour des raisons de licence.


    Débats secondaires
    Usurpation du label Nanotechnologie
    Afin d'accéder à des budgets importants, certains centres de recherches ou de développement, présentent leurs travaux comme relevant des nanotechnologies alors même qu'elles relèvent de technologies beaucoup plus classiques.

    On compte parmi ces faux :

    1. des technologies issue de miniaturisation à niveau macroscopique, c'est le cas de nombreuses technologies militaires présentées sous ce label (Notamment les drones, missiles et de la plupart des éléments du programme FELIN);
    2. des technologies relevant de microtechnologies classiques ;
    3. des technologies impliquant des procédés nanométriques ne relevant pas de domaines d'interfaces entre divers domaines. En chimie, les réactions se font à niveau atomique ou moléculaire. En physique, où les technologies laser et nucléaires se font à niveau nanométrique. Cependant, la majorité de ces techniques chimiques ou physiques ne sont pas à l'interface entre plusieurs technologies nanométriques issues de domaines différents et n'entrent pas dans le domaine des nanotechnologies.
    La revendication large de l'appartenance aux nanotechnologies est source de confusion dans le débat sur les nanotechnologies.

    Évolution dudébat
    Naissance du débat
    En 1999, l'informaticien Bill Joy, créateur du langage Java a publié dans Wired un article qui a fait date intitulé : «Pourquoi le futur n’a pas besoin de nous» et en sous-titre : «Les technologies les plus puissantes du XXI[SUP]e[/SUP] siècle : le génie génétique, la robotique et les nanotechnologies menacent d’extinction l’espèce humaine ». Cet article a provoqué une prise de conscience et diverses prises de position face aux risques des nanotechnologies, notamment du Prince Charles.

    Anticipant la recherche de plusieurs années, des débats sont organisés :

    • Des collectifs tels que les OGN dénoncent le choix de société que ces technologies peuvent préparer et déclarent : «Nous ne voulons pas du nanomonde, avec ses nanoparticules toxiques, ses armes intelligentes, ses organismes atomiquement modifiés (OAM), ses mouchards électroniques, son techno-contrôle permanent.»
    • D'autres débats mettent en avant le caractère utopique ou anticipé de ces critiques.
    Cependant, certains répondent que ces hypothèses supposent souvent l'existence de nano-machines perfectionnées, loin d'être envisageable à l'heure actuelle.
    Les défenseurs des nanotechnologies comparent ces risques à ceux, au cours des années 1960, que l'informatique débouche sur une intelligence artificielle qui dominerait l'humanité.

    En juin 2004, à Alexandria (Virginie), des représentants de 25 nations ont pour la première fois débattu de la façon de réguler ce type de recherche au niveau planétaire.
    Divers gouvernements, dont celui des USA en 2006, s'interrogent sur les nouveaux risques (avérés ou suspectés) qui peuvent découler des nanotechnologies, et sur les moyens de les gérer.

    Une enquête effectuée fin 2007 aux États-Unis, montre une forte différence de perception et de hiérarchisation des risques liés aux nanotechnologies, selon que les questions étaient posées aux scientifiques ou au grand public, alors que leur appréciation des bénéfices potentiels étaient relativement proches :

    1. Les scientifiques interrogés étaient plus inquiets que le public à propos des impacts sur la santé des nanoproduits ou par des caractéristiques de «nouveaux polluants» de ces produits.
    2. Le public était beaucoup plus inquiet que les scientifiques sur les risques d'atteinte à la vie privée, de pertes supplémentaires d'emplois et de course aux armements.

    Manifestations





    ____________________________________
    Nom de la page : Débat sur les nanotechnologies
    Contenu soumis à la licence CC-BY-SA 3.0.
    Source : Article Débat sur les nanotechnologies de Wikipédia en français (auteurs)
    Les textes sont disponibles sous licence Creative Commons paternité partage à l’identique

    ____________________________________



    F I N
     
  17. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113
    Salam, Wladbladi

    Les nanotechnologies touchant presque à tous les secteurs, comme d'habitude, j'ai essayé de récolter le maximum d'informations qui leur sont relatives de près ou de loin.
    Bien entendu, il y en a encore mais ceux-ci débouchent sur d'autres articles qui sont redirigés vers d'autres matières etc...
    J'espère que ce sujet - complexe et dérangeant quant à l'éthique - vous aura plu.

    Je vous souhaite une bonne lecture :)
     
  18. titegazelle

    titegazelle سُبحَانَ اللّهِ وَ بِحَمْدِهِ Membre du personnel

    J'aime reçus:
    4181
    Points:
    113
    Du micro au nano mètre
    Documentaire français 2015 inédit

    Ajouté par :[​IMG] Tipofilm FR



    Ps/ Quelques erreurs se sont glissées
    - à la première page de cet article -
    lors de la nouvelle version du Forum.
    Je les corrigerai bientôt incha2 Allah [06c]
     

Partager cette page