Toshiba

3.4053030303269 (1584)
Posté par woody 28/02/2009 @ 23:04

Tags : toshiba, portables, informatique nomade, high-tech, matériel, pda, mobiles, téléphonie, télécommunications, smartphone

Dernières actualités
Toshiba Satellite A500 : un PC portable orienté - Génération NT
Cet ordinateur portable est propulsé par un processeur Intel Core 2 Duo ou AMD Turion X2, et embarque jusqu'à 8 Go de RAM. Son écran LCD 16 pouces s'appuie sur un circuit vidéo ATI Radeon HD 4570 avec 512 Mo de mémoire dédiée, ou ATI Radeon HD 4650...
Toshiba TG01 : le smartphone sous WM 6.1 en vente au Japon ... - Mobinaute
Annoncé au mois de février dernier, le nouveau smartphone haut de gamme de Toshiba sous Windows Mobile 6.1, le « TG01 », est désormais commercialisé au Japon via l'opérateur NTT DoCoMo. Il y est disponible sous le nom de « NTT DoCoMo T-01A »....
Lecteur DVD-DivX portable SD-P73SW de Toshiba : feel freedom ! - Business News
Avec le lecteur DVD-DivX portable, le SD-P73SW que Toshiba a lancé la mobilité et le cinéma sont enfin compatibles. En effet, l'appareil est équipé d'un écran 18cm permettant, ainsi, de regarder un film (DVD ou DivX) ou des photos ou encore d'écouter...
NEC Electronics et Toshiba participent à l'alliance IBM pour le 28 nm - VIPress.net
NEC Electronics et Toshiba viennent d'étendre leur partenariat technologique avec IBM pour participer au développement d'un procédé Cmos 28 nm avec les autres membres de l'Alliance IBM que sont Chartered Semiconductor, Globalfoundries,...
Baisse historique des livraisons de PC - Tom's Hardware
HP est en pole position, suivi de Dell dont les livraisons ont baissé de 18,7 % par rapport à la même période l'année dernière, puis viennent Acer, Lenovo et Toshiba. Ce dernier ad'ailleurs connu la plus forte croissance parmi les marques du top 5....
Nouvelle gamme de portable pour Toshiba - Ere Numérique
Dans la série Satellite, Toshiba a décliné plusieurs types de notebook allant de la puissance à l'ultra portabilité. Le premier dévoilé, est le Satellite A500, doté d'un écran 16 pouces. Puissant, il permet du montage vidéo ou audio et s'adresse au...
LPS-Partenaire : Test Toshiba NB200, Nouveau venu chez les netbooks. - Le Journal de la Next-Gen
Notre partenaire LaptopSpirit, spécialiste de la Mobilité et du PC portable, vient de disséquer dans ses laboratoires un nouveau PC Ultra-portable, le test dédié du Toshiba NB200, un nouveau venu dans la grande famille des netbooks....
Les soldes d'été promettent d'être explosifs ! - La Vie Numérique
Il ya ceux qui essayent peut-être de placer leurs produits avant la chute des prix attendue comme LDLC.com qui communiquait encore le 22 juin sur des ordinateurs portables Toshiba en promotion, ou encore Darty qui ne parle pas de soldes mais surfe sur...
Un test du très beau netbook Toshiba NB200 - Cowcotland
Toshiba est présent depuis assez longtemps sur le marché des netbooks, mais il faut bien avouer que le NB100 n'était pas une réussite, surtout au niveau du Design. Mais les choses changent, et heureusement pour nous, et le NB200, le deuxième modèle de...
Le netbook de Toshiba NB200 testé : tout bon, ou presque ? - Actualitté.com
Une petite batterie de 6 cellules, un écran de 10 pouces, et un tarif minimum de 350 €, voilà bien un nouveau modèle de netbook qui pourrait faire l'affaire, tant pour s'offrir un peu de traitement de texte pour ses cours que pour consulter en...

Toshiba

Toshiba Corporation (株式会社東芝, Tōshiba Kabushiki-gaisha?, TSE: 6502, LSE : TOS) est un fabricant japonais de matériel électronique et informatique. C'est le plus grand fabricant de semi-conducteurs du Japon. En 2005, la société est le troisième fabricants mondial de semiconducteurs, derrière Intel et Texas Instruments, mais devant STMicroelectronics.

Cette entreprise est dirigé par Tadashi Okamura. Elle employait 190 000 personnes en 2001 au niveau mondial et a annoncé la suppression de 18 000 emplois en 2002.

Le nom Toshiba est souvent écrit en rouge sur les produits de la société.

Toshiba fut fondé à partir de la fusion de deux entreprises en 1939.

La première entreprise, Tanaka Seizosho (« Travaux d'ingénierie Tanaka »), était le premier fabricant du Japon de matériel télégraphique. Elle fut fondée par Hisashige Tanaka en 1875. En 1904, le nom de la compagnie fut modifié en Shibaura Seisakusho (« Travaux d'ingénierie Shibaura »). Durant la première moitié du XXe siècle, l'entreprise devint un fabricant majeur de machinerie lourde au Japon, et se modernisa pendant l'Ère Meiji, pour devenir une entreprise d'envergure internationale.

La seconde entreprise, nommée originellement Hakunetsusha, fut fondée en 1890. Elle était le premier producteur nippon de lampes à incandescence. L'entreprise se diversifia dans la fabrication d'autres produits de grande consommation, et elle fut renommée Tōkyō Denki (Électricité de Tōkyō) en 1899.

La fusion en 1939 de Shibaura Seisakusho et Tōkyō Denki donna naissance à une nouvelle compagnie baptisée Tōkyō Shibaura Denki. Elle fut bientôt surnommée Toshiba, mais ce n'est qu'en 1984 que l'entreprise fut officiellement appelée Toshiba Corporation.

Le groupe connut une très forte expansion, à la fois grâce à sa croissance interne mais aussi de par de nombreuses acquisitions, achetant des firmes du secteur primaire et de l'industrie lourde dans les années 1940 et 1950 et les transformant en filiales du groupe à partir des années 1970. Le groupe ainsi créé rassemble Toshiba EMI (1960), Toshiba Équipements Électriques (1974), Toshiba Chemins de Fer (1974), Toshiba Éclairage et Technologie (1989) et Toshiba Transports (1999).

En 1987, l'entreprise fut accusée de vente illégale de fraiseuses automatiques utilisées par l'Union soviétique pour produire des propulseurs sous-marins très silencieux, violant ainsi l'accord du CoCom. L'incident mis en tension les relations entre les États-Unis et le Japon et eut comme conséquence la poursuite et l'arrestation de deux cadres supérieurs, ainsi que la prise de sanctions sur la compagnie par les deux pays.

En 2001, Toshiba signa un contrat avec Orion Electric, un des premiers OEM mondiaux dans le domaine de la fabrication d'équipements électroniques visuels, pour fabriquer et fournir le consommateur en matériel vidéo afin que Toshiba puisse satisfaire la demande croissante du marché Nord-américain.

En décembre 2004, Toshiba a annoncé qu'il arrêterait progressivement la fabrication de télévisions à tubes cathodiques.

En 2006, l'entreprise met un terme à sa production d'écrans plasma. La compagnie transféra rapidement à Orion la production des téléviseurs cathodiques et plasma de marque Toshiba. Cependant, pour être présent et assurer sa future compétitivité sur le marché des écrans plats numériques, Toshiba a fait un investissement considérable dans une nouvelle génération de technologie d'affichage appelée SED.

Toshiba a racheté en 2007 la firme américaine Westinghouse, spécialiste dans le domaine nucléaire (et qui avait cédé sa licence concernant les réacteurs nucléaires à eau pressurisée en 1974 à Framatome, permettant aux Français de construire le parc nucléaire actuel).

La société, de par sa tradition de l'innovation, a été responsable de nombreuses premières technologiques au Japon, dont, entre autres, les radars (1942), la télévision à transistors et le four à micro-ondes (1959), la visiophonie (1971), l'IRM (1982), les ordinateurs portables (1986), la NAND EEPROM (1991), le DVD (1995), et le HD-DVD (2005).

Avant la Seconde Guerre mondiale, Toshiba était un membre du zaibatsu Mitsui. Aujourd'hui, Toshiba appartient au keiretsu Mitsui (ensemble d'entreprises, de domaines variés, entretenant entre elles des participations croisées), et a toujours bénéficié de rapports privilégiés avec la banque Mitsui et les autres membres du keiretsu. L'adhésion à un de ces groupes signifie traditionnellement fidélité envers les autres membres du même keiretsu ou à keiretsu allié. Cette loyauté peut même s'étendre, par exemple, au choix de la marque de bière consommée par les employés de l'entreprise, ce qui était le cas de Toshiba avec la marque japonaise Kirin.

En haut



Toshiba Brave Lupus

Toshiba Brave Lupus est un club japonais de rugby à XV détenu par Toshiba, et résidant à Fuchū, comme leur rival local Suntory Sungoliath.

En haut



Disque Blu-ray

Disque Blu-ray

Le disque Blu-ray ou Blu-ray disc (abréviation officielle BD, autre dénomination B-RD) est le support par lequel Sony veut remplacer le DVD. Il avait comme principal concurrent le HD DVD, lancé par Toshiba et soutenu par Microsoft, qui ont annoncé son abandon en février 2008. Il est basé sur un rayon laser bleu-violet (longueur d’onde : 405 nm), d’ouverture numérique élevée (0,85), d’où le nom en anglais blue ray (rayon bleu) contracté en « Blu-ray » pour déposer la marque. Par comparaison avec le laser rouge (longueur d’onde : 780 nm) d’ouverture numérique 0,45 utilisé pour le CD et le laser orange (longueur d’onde : 650/635 nm) d’ouverture numérique 0,6 utilisé pour le DVD, il permet de stocker plus d’informations sur la même surface grâce à un rayon plus fin (diamètre du spot laser : 290 nm) induisant des sillons de gravure plus petits et plus rapprochés (écart : 320 nm) et des alvéoles plus courtes (longueur minimale : 149 nm — 135 nm pour le modèle 27 Go actuellement abandonné). Les premiers appareils grand public à utiliser cette technologie sont apparus fin 2006, notamment la PlayStation 3 en novembre au Japon puis aux États-Unis, et le 23 mars 2007 en France.

Le nom « Blu-ray » vient simplement de la technologie utilisée pour lire et graver les données : « Blu » (bleu) et « ray » (rayon laser). Selon la Blu-ray Disc Association, l’orthographe « Blu-ray » n’est pas une erreur, le « e » de « blue » a été retiré afin de pouvoir déposer la marque.

Il faut noter qu'une majorité des disques Bluray commercialisés sont dits zone free, c'est-à-dire sans restriction de zone. Quelques studios tels que Disney par exemple, maintiennent les zones de commercialisation.

Un disque Blu-ray double couche contient 50 Go, soit 4h26 de vidéo HD (Haute-Définition) au format MPEG-2 avec un débit binaire de 25 Mb/s (104 ko par image) voire 6h06 en H.264/MPEG-4 AVC avec un débit binaire de 18 Mb/s, ou 22 heures de vidéo SD(Simple Definition) au format MPEG-2 avec un débit binaire de 5 Mb/s(equivallent du DVD). Le taux de transfert est de 36 Mbits/sec (4,5 Mo/s) pour les lecteurs 1× et de 72 Mbits/sec (9 Mo/s) pour les lecteurs 2× actuellement disponibles sur le marché. Les standards BD-R (disque enregistrable), BD-RE (réinscriptible) et BD-ROM (lecture seule) font partie des spécifications Blu-ray 2.0. Les disques pré-enregistrés BD-ROM étaient disponibles début 2007 ; le premier BD-ROM a été gravé en novembre 2005 (Sony Pictures Home Entertainment). Le projet de faire des disques de 100 Go et 200 Go a finalement abouti ; le disque de 100 Go utilise des couches de 25 Go, tandis que celui de 200 Go utilise des couches de 33,3 Go. Pour le moment, seuls certains appareils, comme la PlayStation 3, peuvent lire ce format en simple et double couche. Il n’existe actuellement aucun lecteur pour les disques de 100 et 200 GB (confirmé par Hitachi, créateur du BD 100 Go).

Le format BD-ROM spécifie trois codecs pour la vidéo : MPEG-2 (le standard actuellement utilisé pour les DVD), le codec H.264/MPEG-4 AVC, et le codec VC-1 basé sur le codec Microsoft Windows Media 9. Le premier codec autorise seulement deux heures de contenu en haute définition sur un disque Blu-ray simple couche, mais avec les autres codecs un disque simple couche peut contenir environ quatre heures. Le MPEG-2 haute définition a un taux de transfert d’environ 25 Mbit/s, alors que les deux autres ont un taux de transfert d’environ 15 Mbit/s pour la vidéo et 3 Mbit/s pour l’audio.

Les disques BD-RE (et par extension les disques BD-R) supportent maintenant le MPEG-2 SD et le MPEG-4 HD grâce à la diffusion via la TNT HD enregistrée sans modification du signal d'origine qui conserve ainsi sa qualité native, le 16/9 et le son 5.1 ...

Les méthodes d’encodage du flux audio incluent le PCM linéaire, le Dolby Digital (dont le Dolby TrueHD à compression sans perte), le DTS (dont le DTS HD, initialement DTS++, à compression sans perte).

Une spécification pour un disque Blu-ray de 8 cm a déjà été finalisée et approuvée. Il en résulte un disque de 8 cm simple couche à une face, capable de contenir 15 Go, soit une fois et demie la capacité d’un DVD double couche normal de 12 cm. Ce format serait adapté pour les petits appareils portables, comme les lecteurs vidéos ou les caméras numériques, dont le futur modèle de la PlayStation Portable.

Un disque hybride Blu-ray/DVD a été développé par JVC et LG et attend d’être reconnu par l’association Blu-ray Disc. Cela permettrait d’utiliser un même disque dans les lecteurs Blu-ray et DVD. Les utilisateurs pourraient acheter un seul disque pouvant être lu soit en définition normale soit en haute définition, suivant le matériel utilisé. Les utilisateurs ne possédant qu’un simple lecteur DVD pourront regarder la vidéo en définition normale, puis en haute définition lorsqu’ils achèteront un lecteur Blu-ray.

Sony propose dans sa gamme VAIO AR des PC portables d’ores et déjà équipés de graveur Blu-ray double-couche.

Cette technologie utilise une diode laser bleue (en fait bleue violacée) fonctionnant à une longueur d’onde de 405 nm pour lire et écrire les données. Les CD et les DVDs conventionnels utilisent des lasers rouges et oranges à respectivement 780 nm et 650/635 nm.

Au niveau de la comparaison des couleurs, la couleur visible d’un tube de lumière noire est dominée par les émissions violacée du mercure à 435,8 nm. La diode laser bleu violacé utilisée pour les disques Blu-ray fonctionne à 405 nm, ce qui est nettement plus violet (plus proche de l’extrémité violette du spectre de la lumière visible) que la partie visible de la lumière noire. Un effet secondaire du fait que la longueur d’onde soit très petite est que plusieurs matériaux deviennent fluorescents, et le rayon apparaît comme blanc bleuté s’il se réfléchit sur une surface blanche (comme une feuille de papier). Si les technologies futures projettent l’utilisation de supports fluorescents, les disques Blu-ray fonctionnent d’une manière similaire à celle des CD et des DVD et n’utilisent pas la fluorescence des supports pour lire les données.

Le laser bleu violacé a une longueur d’onde plus courte que celle des systèmes CD ou DVD, et cette réduction permet de stocker plus de données sur un disque de même taille (12 cm). La taille minimale du point sur lequel le laser peut être focalisé est limitée par la diffraction, et dépend de la longueur d’onde de la lumière et de l’ouverture numérique de la lentille utilisée pour le mettre au point. En diminuant la longueur d’onde (en se rapprochant de l’extrémité violette du spectre), en utilisant un système à double lentille avec une meilleure ouverture numérique (meilleure qualité) et en rendant le disque plus fin afin d’éviter certains effets optiques, le laser peut être focalisé beaucoup plus précisément sur la surface du disque. On obtient des pointages lumineux plus précis, et ainsi il peut stocker plus d’informations sur le disque dans un même espace. En plus des améliorations optiques, le disque Blu-ray présente des améliorations en ce qui concerne l’encodage des données et le rapprochement des pistes entre elles, ce qui permet de stocker encore plus de données (voir l’article sur le disque compact pour des informations sur la structure optique du disque).

L’introduction de TDK au sein de la fondation Blu-ray, annoncée le 19 mars 2004, fut accompagnée d’un grand nombre d’indications pouvant améliorer de façon significative l’avenir du disque Blu-ray. La technologie de protection renforcée de TDK permettrait aux disques Blu-ray de mieux résister aux rayures, et leur permettrait d’être nettoyés des empreintes de doigts avec un simple tissu, procédé qui laisse des micro-rayures sur un CD ou un DVD normal.

Comme tous les disques optiques, le Blu-ray est un support qui nécessite plusieurs heures de fabrication et une extrême minutie. Ainsi, le disque Blu-ray est composé de plusieurs couches de substrats à partir d'un disque nommé "Master". Il est confectionné au sein d'une salle blanche dans laquelle la pression est volontairement basse afin de limiter la volatilité des impuretés. Les personnes qui interviennent lors de la fabrication sont équipés de combinaisons spéciales. Tous les détails de la conception d'un disque Blu-ray sont regroupés au sein d'un dossier complet illustré.

Cette association de TDK et Sony visait naturellement à rendre le BD moins coûteux à la fabrication pour mieux rivaliser avec le concurrent HD DVD qui certes avait des capacités maximales de stockage inférieures au Blu-ray (15 Go par couche pour le HD DVD contre 25 Go par couche pour le BD) mais qui avait l’avantage de pouvoir être fabriqué sur les chaines actuelles de montage du DVD. Avant le progrès de TDK, le consommateur était bien embêté car les deux supports étant incompatibles entre eux d’un point de vue de lecture, il aurait fallu acheter un lecteur BD et un lecteur HD DVD pour pouvoir regarder les films des uns ou des autres. La première solution envisagée était de destiner le Blu-ray au stockage informatique et le HD DVD aux films. Cette solution était calquée sur un problème similaire ayant opposé le VHS au Betamax. Ce dernier était d’une qualité supérieure à celle du VHS, mais sa capacité d’enregistrement était moindre. Davantage de fabricants se sont ralliés au format inventé par JVC : le VHS a donc été destinée au marché grand public et le Betamax à une utilisation professionnelle dans sa version Betacam. Par analogie à cette époque, Sony et TDK nous permettent donc d’avoir un VHS qui a la qualité du Beta.

Le 19 février 2008, Toshiba annonçait qu’il abandonnait la technologie HD DVD laissant le Blu-ray Disc sans concurrence. En effet, le Blu-ray offrant la plus grande quantité de stockage et malgré son coût plus élevé par rapport au HD-DVD, le fait que Wal-Mart et Warner Bros le choisissent comme support exclusif en abandonnant définitivement le HD-DVD a joué un grand rôle.

Les membres de la fondation Blu-ray ont concentré leurs efforts sur la réduction des coûts de production, en jouant sur différents aspects. Le 15 avril 2004 par exemple, Sony et Toppan Printing ont annoncé la réussite du développement d’un disque Blu-ray composé à 51 % (en masse) de papier, ce qui pourrait réduire les coûts de production et améliorer son côté environnemental.

La fondation Blu-ray a, bien que ce ne soit pas obligatoire pour les constructeurs, modifié les équipements Blu-ray afin d’assurer une rétrocompatibilité. Cet aspect rend la migration plus attirante pour les utilisateurs, car ils ne sont pas obligés de remplacer leur collection de DVD.

Le premier enregistreur de disques Blu-ray a été dévoilé par Sony le 3 mars 2003, cependant, suite à de nombreux retards, les premières platines compatibles Blu-ray ne devaient pas apparaître avant fin juin 2006. Le 1er septembre 2003, JVC et Samsung Electronics annoncèrent des produits fondés sur la technologie Blu-ray à l’IFA, à Berlin, en Allemagne.

En mars 2004, Sony et Matsushita ont annoncé la vente de disques de 50 Go la même année. Pourtant, il n’y avait alors ni lecteurs de salons, ni graveurs de Blu-ray pour ordinateurs disponibles. Sortie en novembre 2006 au Japon puis aux États-Unis et le 23 mars 2007 en Europe, la nouvelle console de Sony, la PlayStation 3, est équipée en série d’un lecteur Blu-ray. C’est l’une des premières machines de salon à être équipée de ce support. À l’image de la PlayStation 2 et de son lecteur DVD, Sony veut se servir de la popularité des jeux vidéo et de la marque PlayStation pour imposer l’usage du Blu-ray.

Sony a lancé un PC portable de la série VAIO qui dispose du premier lecteur/graveur Blu-ray (série AR). La première annonce d’un périphérique Blu-ray était à propos de l’OPU81 par Philips, en janvier 2005 et prévu pour la deuxième moitié 2005, mais a été repoussé.

Devant partager le marché naissant de la haute définition avec son concurrent HD DVD, le Blu-ray s'est introduit lentement et avec difficulté dans les foyers. Ces deux technologies nouvelles étaient en effet coûteuses mais aussi source d'insécurité : choisir l'un des deux formats était faire un pari sur son avenir car il était certain que l'un de ces formats n'allait pas être maintenu très longtemps.

Toutefois, la part de marché des Blu-ray sur le secteur haute définition dépassait déjà fin 2007, celle du HD DVD, aussi bien en termes de médias vendus que de platines, avec deux Blu-ray vendus pour un HD DVD.

À partir de la victoire du média en 2008 (Toshiba a finalement abandonné le HD DVD le 19 février 2008), de nombreux constructeurs ont annoncé la commercialisation de matériel compatible, et les ventes de Blu-ray constituent aujourd’hui la quasi totalité des ventes de média Haute-Définition.

En Europe, les ventes de Blu-ray deux ans après sa sortie ont finalement été supérieures à celles du DVD à son époque. Toutefois, le Blu-ray a du mal à percer mondialement. Et la PS3 est la seule console dotée d'un lecteur de Blu-ray. Les ventes de Blu-ray discs aux USA ont chuté de 40 pour cent en février 2008, même si Sony se targue d'avoir vu augmenter lesdites ventes le mois suivant de 2 pour cent.

Samsung, pourtant promoteur de la démocratisation du Blu-ray dans les foyers, annonce même la mort du Blu-ray dans 5 ans.

De plus, la technologie upscale de plus en plus prisée par le grand public constitue une nouvelle concurrence pour les disques à haute définition et pourrait bien abattre définitivement le Blu-ray. Grâce aux nouveaux lecteurs DVD équipés de prise HDMI, l'image d'un DVD sur une TV HD est améliorée. Toshiba sort en Europe fin septembre 2008 un nouveau type de lecteur DVD qui devrait rendre la qualité de lecture des DVD sur une télévision HD quasiment équivalente à celle du Blu-ray' .

Seulement 9 % des personnes n'ayant pas de lecteur Blu-ray envisagent d'en acheter un. Les disques Blu-ray restent chers, peu nombreux. Néanmoins, le rythme mensuel des sorties Blu-ray s'accélère.

La nécessité d’une si grande capacité n’est a priori pas totalement justifiée, notamment par le fait qu’un simple DVD peut contenir un film en haute définition pourvu qu’il soit encodé en H.264 (ou un format de même génération). En effet, le choix d’un meilleur encodage que le MPEG-2 (utilisé sur les DVD video) permet d’augmenter la quantité d’informations stockées dans un même volume de données.

Néanmoins le contenu des disques évolue, et on peut s’attendre à trouver plus d’interactivité (notamment les DVD Interactifs qui sont souvent des jeux) ou de prise de vue différentes dans les films. On peut imaginer de nouveaux marchés tels que des films 3d, qui pourraient tirer profit d’une grande capacité de données.

Depuis février 2008, tous les principaux studios soutiennent le Blu-ray. Toutefois, ce soutien a parfois été tardif en raison de la concurrence du HD-DVD.

Comme on aurait pu le prévoir, Sony Pictures Entertainment et les studios MGM ont tous deux annoncé leur soutien du format Blu-ray dès sa création.

Le 3 octobre 2004, le groupe 20th Century Fox a annoncé qu’il rejoignait la fondation Blu-ray, mais n’a pas encore décidé quel format soutenir (bien qu’il semble que ce sera le Blu-ray).

Le 8 décembre 2004, la Walt Disney Company (et sa division de distribution audiovisuelle, Buena Vista Home Entertainment) ont annoncé un soutien exclusif au format Blu-ray.

Le 7 janvier 2005, Vivendi Universal Games (VU Games) et Electronic Arts (EA Games) ont annoncé leur soutien au disque Blu-ray.

Le 10 mars 2005, Apple Computers Inc. a rejoint la fondation Blu-ray.

Le 20 octobre 2005, Warner Bros. a annoncé son soutien du format Blu-ray.

Le 4 janvier 2008, Warner Bros. a annoncé qu’il sortira uniquement des disques au format Blu-ray. La commercialisation des DVD haute définition au format HD DVD se terminera le 31 mai 2008.

Le 20 février 2008, Universal Pictures a confirmé son adoption définitive du Blu-ray, après l’abandon du format HD-DVD par Toshiba.

Le 22 février 2008 Paramount Pictures est la dernière grande compagnie à confirmer son adoption définitive du Blu-ray, après l’abandon du format HD-DVD par Toshiba.

Le principal concurrent du Blu-ray était le HD DVD (suite à l’abandon par Toshiba de son format, il est en 2008 le seul format HD), soutenu par Toshiba, NEC et Microsoft. Il possédait une densité de données plus faible, mais était moins cher à produire (car utilisant les mêmes chaînes de montage que le DVD actuel), ainsi que les périphériques de lecture et d’écriture.

Le 29 novembre 2004, quatre studios hollywoodiens ont annoncé leurs projets de s’appuyer sur le HD DVD plutôt que sur le Blu-ray, bien que de façon non exclusive : New Line Cinema, Paramount Pictures, Universal Studios et Warner Bros. De fait, depuis août 2006, Paramount Pictures et Warner Bros produisent parallèlement des versions Blu-ray de leurs films. Cependant, en août 2007, Paramount Pictures et Dreamworks ont suspendu leur soutien au Blu-ray ; leurs films ne seront désormais pressés que sur des disques HD DVD, tandis que Warner Bros annonce le 4 janvier 2008 l’exclusivité de leurs films au Blu-ray à partir de mai 2008.

En haut



Cell (processeur)

L'architecture du processeur Cell

Le Cell est un processeur conçu conjointement par IBM, Sony et Toshiba, révélé en février 2005. Il équipe notamment la console de jeu vidéo PlayStation 3 de Sony. Il est envisagé de produire également des ordinateurs à base de Cell chez IBM, Mercury Computer Systems et Toshiba (Qosmio F50/55 et G50/55).

Il est important de comprendre, au-delà des chiffres avancés par les concepteurs, la philosophie du Cell, radicalement différente des autres processeurs qui équipent, par exemple, les PC comme le Phenom d’AMD ou le Core 2 d’Intel.

En effet, les processeurs traditionnels ont développé ces dernières années, en amont des unités d'exécutions proprement dites, des unités d'optimisation du code informatique composant les programmes. Ceci facilite grandement la tâche des programmeurs, et un code non optimisé peut fonctionner dans de bonnes conditions. À titre d'exemple, les processeurs traditionnels réorganisent le code en interne avant exécution, ils sont dits « OoO » (out of order). Les instructions peuvent être exécutées dans un ordre différent de celui donné par le programme. Après exécution, le processeur remet les instructions dans le bon ordre pour garantir le bon fonctionnement. Cela implique de plus un matériel de suivi (de traçabilité) des instructions au fur et à mesure de leur progression dans le pipeline. Tout ce travail consomme énormément de place (de transistors) sur le processeur.

Enfin, les processeurs traditionnels n'évoluent plus fondamentalement depuis des années. Ils se contentaient essentiellement d'exploiter les nouveaux procédés de gravure pour monter en fréquence. Cette ère est terminée depuis le 90 nm, qui ne permet plus de monter en fréquence autant que par le passé. C'est pour cette raison que l'on assiste à l'émergence des processeurs double cœur : on exploite la nouvelle finesse de gravure pour mettre plus de transistors et développer le SMP à l'intérieur même du processeur, sans grande augmentation de fréquence.

IBM pour le Cell a choisi une approche originale. Le Cell, tout comme les processeurs du passé, ne fait aucun travail de réorganisation du code, il est dit « in order ». Cela libère beaucoup de place pour ajouter de nouvelles unités d'exécution. L'inconvénient est que le travail d'optimisation est à la charge du programmeur et du compilateur et nuit donc à l'interopérabilité. Le déplacement d'un travail à l'extérieur du processeur avait déjà prévalu pour le RISC.

Une autre originalité du Cell, c'est qu'il est optimisé pour le calcul distribué : plusieurs processeurs peuvent communiquer entre eux et partager leur charge de travail. Ainsi, plus on possède de processeurs Cells, plus on a une puissance de calcul importante à disposition.

Plutôt que de dupliquer plusieurs fois le même cœur identique, comme sur les processeurs multi cœur classiques, les concepteurs ont choisi une toute autre approche : 1 cœur principal, et 8 cœurs spécifiques.

Le cœur principal, dit PowerPC Processing Element ou PPE, reste relativement proche d'un cœur classique : même si comme nous l'avons vu sa conception est simplifiée, en particulier avec l'absence de module d'optimisation, le jeu d'instruction IBM POWER, bien connu, permet un accès à la RAM via un système de cache à deux niveaux L1 et L2. Ainsi, le PPE est la partie du Cell la moins exotique.

Chacun des 8 cœurs spécifiques, dit Synergystic Processing Elements ou SPE, est constitué de 2 parties : une mémoire locale (Local Storage ou LS) de 256 Ko et une unité de calcul vectoriel dite Streaming Processor Unit ou SPU. Dotés d'un jeu d'instruction SIMD spécifique mais se rapprochant de AltiVec, les SPU ont un accès direct et extrêmement rapide à leur mémoire locale. Par contre, pour accéder à la mémoire principale ils doivent effectuer une requête de transfert asynchrone à un bus d'interconnexion.

Ce bus d'interconnexion dit Element Interconnect Bus ou Bus EIB est le dernier élément très important du Cell. Son rôle est d'établir la connexion entre le PPE, les SPE, la mémoire RAM principale, et les périphériques d'entrée-sortie.

Il dispose de 234 millions de transistors gravés sur une surface de 235 mm2 en 90 nm SOI (Silicon On Insulator). La version finale tourne à 3,2 GHz en 0,9 V et est formée de huit couches de cuivre interconnectées. Le contrôle de la température est dynamique : dix capteurs thermiques numériques et un capteur linéaire.

Le mot cell signifie cellule en anglais. Le processeur se décompose en effet en plusieurs cellules. Une cellule est un ensemble formé par le PPE et un SPE. Cette unité matérielle indépendante peut être affectée à un thread. La répartition des tâches selon les cellules est l'enjeu pour le programmeur qui souhaite utiliser au mieux ce processeur.

Le cœur (PPE) utilise les jeux d'instructions IBM POWER et AltiVec, les nombres entiers, et la répartition du travail entre les SPEs. C'est un processeur 64 bits, « In Order », et SMT deux voies. Il a une mémoire cache intégrée de niveau 1 de 32 Ko.

Ils se destinent au calculs SIMD. Un SPE correspond à un processeur vectoriel indépendant possédant 128 registres 128 bit, 4 unités de calcul en virgule flottante double précision et 4 unités de calcul entiers. Il effectue deux instructions par cycle d'horloge. Il inclut une mémoire locale de 256 Ko de type SRAM haute vitesse. Un processeur Cell contient 8 SPEs.

Comporte 4 boucles 128 bit supportant des transferts multiples. Il relie tous les composants du CELL entre eux : PPE, SPEs, cache L2 et contrôleurs mémoire et entrées/sorties.

On peut voir dans le ChangeLog, les changements intervenus pour la version 2.6.16 avec la précédente - 20 mars 2006 permettant à Linux de tourner à partir de cette version du noyau.

À partir de la version 2.6.16 du noyau Linux, vous pouvez consulter et utiliser la documentation du système de fichier virtuel de contrôle des SPUs en anglais.

Depuis le 14 juillet 2006, est accessible en anglais, en version SDK 1.1 et pour partie sous distribution Fedora core 5, l'ensemble des logiciels et documentation nécessaire au développement et à la compilation pour le processeur CELL sous Linux, cf. Informations about how to enable linux on Cell Broadband Engine™ based systems par (en) Barcelona Supercomputing Center (BSC).

L'accélération 3D libre pour le processeur CELL est ajouté en janvier 2008 avec une première version rudimentaire d'un pilote pour Gallium 3D le futur remplaçant de Mesa 3D, implémentation libre d'OpenGL. .

À noter que, certains des processeurs utilisés pour les Calculs Haute Performance démontrent aujourd'hui la supériorité des performances lors de calculs 32 bits par rapport à des calculs directement réalisés en 64 bits, comme les processeurs AMD Opteron, Intel Pentium, IBM PowerPC, et Cray X1.

Application la plus connue, la console de jeux vidéo PlayStation 3 de Sony est conçue autour du processeur CELL.

Pour des raisons de coûts de production, un des huit SPEs est inutilisé afin d'obtenir un rendement de production plus élevé (Sony peut utiliser les processeurs avec 1 ou 0 SPE défectueux). Le processeur CELL de la PS3 aura ainsi 7 SPE contrairement à la version standard d'IBM à 8 SPE.

Mercury et IBM ont collaboré pour développer des solutions basées sur le processeur CELL.

IBM annonce une nouvelle génération de serveurs lame et la formation officielle de la communauté Blade qui regroupent des acteurs collaborent au développement de solutions BladeCenter.

Ce serveur lame (utilisé pour le nouveau BladeCenter H) regroupe 9 processeurs CELL, constituant la première offre de ce type chez IBM. Conçu pour les traitements de calcul intensif et les applications multimédia à forte demande en bande passante, il permet d’augmenter de manière significative la bande-passante des petits serveurs lames, et offre ainsi aux entreprises la possibilité de faire circuler 10 fois plus de données sur leur réseau. Cette percée technologique repousse les limites des performances internes des nouveaux systèmes en leur fournissant plus de 40 Gbits/s (Gb) de bande-passante I/O par lame.

Annoncé en septembre 2006, Roadrunner est le premier supercalculateur à utiliser ce processeur (16 000 processeurs de ce type). Il est construit par IBM.

Si le processeur CELL a été, initialement conçu pour les consoles de jeux, sa très grande puissance de calcul le rend très attractif dans de nombreux domaines comme le calcul intensif (HPC), le traitement d'images (TI) et la vision industrielle (VI). Sa complexité rend le portage d'applications très complexe car il faut optimiser les calculs et les transferts. Optimiser les transferts signifie optimiser deux types de transferts : ceux depuis la mémoire externe vers un SPE et ceux entre SPE. Cela revient à implémenter des modèles de transfert pour des calculs dits SIMD ou pipeline. Optimiser un code SPE, n'est alors pas plus compliqué que d'optimiser un code sur un processeur Altivec. Le jeu d'instruction est très proche et supporte les calculs en flottant et en entiers. Fin 2007, seules deux équipes de R&D au monde ont réussi cela, c'est la société Rapidmind (qui vient d'être racheté par Google) et l'équipe AXIS de l'IEF (Institut d'Electronique Fondamentale) (Université Paris Sud). Rapidmind a l'avantage de pouvoir en plus déployer du code sur GPU (carte 3D NVidia et AMD-ATI).

En haut



Surface-conduction Electron-emitter Display

Sed2.gif

Surface-conduction Electron-emitter Display (SED) désigne une technologie d'affichage destinée aux écrans plats, développée conjointement par Canon et Toshiba depuis officiellement abandonnée le 9 juin 2008 au profit de la nouvelle concurrente "OLED".

Le principe SED consiste à placer l'équivalent d'un canon à électrons derrière chaque sous-pixel qui constitue la "dalle" (écran de visualisation). Cette technique permet d'obtenir une efficacité en termes de fluidité d'affichage, rapidité dynamique et de netteté de détails des dalles CRT, tout en bénéficiant de l'encombrement réduit des dalles d'écrans plats de type plasma ou TFT.

La technologie SED est développée depuis 2003 par Canon et Toshiba au Japon. Le projet a été initié en 1999 avec un partenariat des deux entreprises, mais Canon travaillait sur la technologie SED depuis 1986. La fabrication industrielle et mise sur le marché est prévue en 2008 (en prévision des Jeux Olympiques de Pékin).

Les futurs écran plats TV-SED, contrairement aux écrans "Plasma" et "LCD", partent du principe de base du tube cathodique : ils utilisent le flux d’électrons des tubes cathodiques traditionnels (CRT - Cathode Ray Tube), c'est-à-dire un canon à électrons qui émet un flux d'électrons dirigés vers un écran couvert de petits éléments phosphorescents pour créer une image.

Un écran de 40 pouces (~101 cm) aura une épaisseur de 10 millimètres pour un poids d'environ 20 kg et une consommation voisine de 60 W. Mais là, contrairement au CRT, à la place de l’unique canon à électrons du tube cathodique, le panneau SED est tapissé d’autant de nano-émetteurs d’électrons que de pixels qu’il contient.

Chacun de ces pixels est constitué d'une fente de quelques nanomètres de large, située entre deux pôles électriques. Lorsqu’un courant électrique est appliqué aux pôles, les électrons sont émis d’un côté de la fente puis accélérés par la tension appliquée entre les deux plaques de substrat de verre, ils sont projetés vers le substrat de façade et entrent en collision avec la couche de phosphore, ce qui crée l’émission de lumière et la formation d’une image.

Comme le LCD, l’écran SED se compose de deux plaques de verre. La première est recouverte d'un film d'émetteurs individuels d'électrons situés à quelques millimètres d'une seconde plaque de verre recouverte de phosphore.

L’une émet les électrons, l’autre contient une substance luminescente appelée luminophore. C’est la différence de potentiel entre les deux plaques qui permet l'émission électronique et sert de "tube cathodique".

La différence technologique avec les écrans à tubes cathodiques classiques réside dans le fait que chaque pixel possède sa propre source d’électrons ; ainsi, on peut imaginer autant de tubes que de pixels sur l'écran... il n’y a donc plus de balayage, chaque point lumineux possède son propre canon émissif avec un temps de réponse pratiquement nul !

Un tel niveau de contraste, un vrai niveau de noir, voilà des qualités que ne peuvent égaler les panneaux LCD et plasmas.

La définition de l’image est extrêmement élevée : des millions de sources émettrices parsèment l'écran, diffusant les 3 sources de couleurs primaires RVB (Rouge-Vert-Bleu). Dans un écran SED haute définition (composé de 1 920 lignes horizontales de 1 080 points lumineux chacune) il y a plus de 6 millions de canons électroniques !

Procurant des images nettes, une brillance supérieure, un pixel très fin, des rapports de contraste élevés et des angles de vision améliorés, la technologie SED pourrait déloger les écrans plasma, LCD, DLP,... Le premier modèle d'écran serait un 50" d'une résolution de 1920 x 1080p.

Les électrons qui partent de la plaque source émettrice (SCE) traversent un espace sous vide et frappent l’arrière de l’écran qui est recouvert d’une couche de phosphore.

C'est la rencontre électrons/phosphore qui génère de la lumière sous la forme d'un pixel. Et en changeant la composition de la couche phosphorique, on peut modifier les couleurs fondamentales RVB donc la couleur de la lumière émise.

Comme chaque sous-pixel a sa propre source, il n’y a pas de déviation du flux d’électrons. Contrairement au CRT (tube TV traditionnel à source unique) chaque pixel à sa propre source de couleur avec son propre canon à électrons.

Le canon (nano-split) se compose de deux électrodes très fines, séparées d’un nanomètre. Une tension de 16 V est appliquée aux bornes des électrodes, ce qui libère un électron dans l'espace qui les sépare. Un champ électrique de 10 kV, perpendiculaire au premier, projette l’électron contre l’écran.

En octobre 2006, Toshiba et Canon ont annoncé la construction au Japon à partir de l'été, d'une usine d'une capacité de production de 75.000 dalles par mois devant être achevée avant la fin de l'année. La production des écrans TV n'aurait alors débuté que durant l'année 2007 pour une livraison des premières TV SED à la fin de la même l'année. Qant à elle, la production des écrans de PC ne serait plus à l'ordre du jour depuis 2006. Début janvier 2007, Canon annonce le rachat des parts de Toshiba et reprend le projet SED à son compte, faisant "cavalier seul". La technologie est abandonnée en juin 2008.

Les prix des écrans à diagonale équivalente seraient proches de ceux des LCDs et des plasmas.

Selon le « Business Plan » préparé par Canon et Toshiba en 2006, la vente est estimée à 3 millions d’écrans SED commercialisés à un prix moyen de 67 000 Yens (soit 550 €) l'unité. Cette valeur représente alors 20% du marché estimé des 40 pouces à cette période. L’opération est annoncée comme bénéficiaire pour les fabricants, ce qui signifie que le coût de fabrication usine est inférieur à ce tarif.

En haut



XDE

La technologie XDE - eXtended Detail Enhancement, élaborée par Toshiba et présentée en juillet 2008, associée au processeur Cell, permet une amélioration de la qualité de l'image lors de la lecture de DVD en offrant un upscaling de 480p à 1080p avec interpolation, la netteté de l'image en serait grandement améliorée, se concentrant sur 3 critères : optimisations des détails, de la couleur et du contraste.

XDE est un pari commercial de Toshiba qui mise sur la pérennité du support DVD face au Blu-Ray, unique représentant du format HD sur le marché, depuis l'abandon du HD-DVD en février 2008, et qui peine à séduire.

La première platine DVD commercialisée à disposer du XDE est la Toshiba XD-E500, mais la technologie sera également incorporée aux produits d'autres fabricants.

En haut



Gigabeat

Les gigabeat sont une ligne de baladeur numériques par Toshiba.

Le Gigabeat G était d'abord introduit durant le WPC Expo Japonais en septembre 2003. Le baladeur à disque dur a des caractéristiques de capacité de 5GB à 40GB, support du fichier MP3, WMA et du WAV pour le son, USB 2.0, et l'intégration avec Windows Media Player. Le lecteur a une écran monochrome de 160x86 pixels avec une rétroéclairage de couleur bleue. La durée de vie de la batterie est d'environ 11 heures. Ce modèle existe seulement au Japon.

Le Gigabeat F est sur le marché depuis septembre 2004. Le lecteur à disque dur est d'une capacité de 10 à 60gb, a une écran TFT LCD 16 bits de 2,2 pouces. La durée de vie de la batterie est de 16 heures et de 19 heures selon les utilisateurs si la rétroéclairage est de 5 secondes. Le Gigabeat F a introduit un nouveau type de bouton appelé "Plustouch" qui est un système de contrôle sensible de forme de plus. Comme le Gigabeat G, le lecteur supporte les fichier MP3, WMA (aussi bien le WMA protégé) et le WAV.

En novembre 2005, Toshiba a signalé une mise à jour du système pour le Gigabeat F et pour le programme Gigabeat Room. Une version américaine était lancée en mars 2006. Par contre, le CD-Rom doit être commandé en appelant chez Toshiba. La mise à jour a réparé les problèmes lors du transfert d'images de Gigabeat Room, mais quelques plantages du programme ont été signalés. Ils ont aussi ajoutés un égaliseur et les problèmes de distortion ont été résolus.

C'est une mise à jour de la série F, mais en laissant tomber la version 40gb pour 30gb et 60gb, sans oublier la batterie de 16 heures. La série X a une écran plus large de 2,4 pouces TFT LCD pour visionner des photos. Il est actuellement en marché en Australie et dans quelques pays d'Asie. Concernant la fiche technique, le tout est le même que le model F.

Le Gigabeat P est le premier lecteur de Toshiba à entrer dans la catégorie de mémoire Flash sur le marché.

Le lecteur a une écran de 1,1 pouce de 16 bits à diode organique d'une résolution de 96x96 pixels. Il vient avec 2 différentes capacité: le P5 de 512mb de couleur noir ou gris et le P10 de 1gb seulement en noir. Les deux supportent le MP3, WMA et WAV et inclut une antenne FM.

Le Gigabeat P5S est Japonais seulement, mémoire de 512mb, mis sur le marché en juillet 2006 pour le model Trapnest et août 2006 pour le model Blast qui ont le personnage de Nana.

Le Gigabeat S est sorti au Japon en avril 2006 et aux États-Unis en mai 2006. Le lecteur a été présenté par Bill Gates au Consumer Electronics Show, en janvier 2006 à Las-Vegas. Il utilise la version 2 du programme Portable Media Center de Microsoft et communique avec Windows Media Player 11 et la Xbox 360. Le lecteur autonomie de 12 heures pour la musique et 2,5 heures pour la lecture de vidéo. Le Gigabeat S est le seul (avec le Gigabeat V) a ne pas se servir de Gigabeat Room pour transférer du contenu.

Le lecteur possède un écran LCD TFT 16 bits de 2,4 pouces et est doté d'un disque dur de 30 ou 60gb. Il peut aussi recevoir la radio FM. Il peut lire des fichiers audio aux formats MP3, WAV et WMA ainsi que des vidéos WMV (les autres formats peuvent être lus après conversion). Le lecteur est certifié Playsforsure, c'est-à-dire compatible avec les magasins de musique en ligne comme Napster To Go.

Le Gigabeat S possède un connecteur USB On-The-Go pour télécharger des images d'un appareil photo numérique sans l'aide d'un ordinateur. Une sortie vidéo composite est aussi présente.

Quelques utilisateurs ont rencontrés un problème quand le lecteur supprime tous les fichiers du disque dur après être déconnecté du port USB., Toutefois, le Zune de Microsoft qui est basé sur le même model que le Gigabeat S n'est pas affecté à cause de la différence du firmware. Ce problème n'est encore pas résolu; il n'y a pas de mise à jour pour le Gigabeat S.

Le Gigabeat V est en marché depuis octobre 2006 dans une capacité de 30gb. Le lecteur est toutefois plus large que son prédécesseur avec une écran TFT LCD 16 bits de 3,5 pouces. Le Gigabeat V a la même interface, supporte les mêmes codecs et a le même design que le Gigabeat S. Il est livré avec un câble USB, un câble Audio/Vidéo out, et un câble diviseur. Le lecteur a 30 heures de batterie pour l'audio et 8 heures pour les vidéos, ce qui est largement plus grand que son petit frère. Par contre, comme tous les autres lecteurs MP3, il ne peut pas se recharger par le cable USB.

La version japonaise inclut l'enregistrement audio et la programmation télévisée.

Une nouvelle version du Gigabeat V est sur le marché japonais depuis le 1er juin 2007. Il a une écran de 4 pouces widescreen avec une résolution de 480x272 pixels et est en version 40 ou 80gb. La durée de vie de la batterie est d'environ 28 heures pour la musique et de 10 heures pour les vidéos. Il n'y a aucun mot de quand cette version sera aux Étas-Unis.

Le 19 mars dernier, Toshiba a annoncé un tout nouveau lecteur, le Gigabeat U, dans des capacités de 1 et 2gb. Le lecteur à mémoire flash a une écran de 1,1 pouce à diode organique et est le premier lecteur de Toshiba a avoir une antenne FM, un enregistreur et un transmetteur, et le premier à inclure un convertisseur digital/analog, ce qui réduit la distortion en enregistrant. Une charge de 10 minutes va durer 3 heures de musique, mais une charge complète peut durer jusqu'à 20 heures. Le lecteur lit les formats WMA (protégé ou non), le MP3 et le WAV non compressé. Impossible de savoir encore si le lecteur sera disponible partout dans le monde mais il est actuellement disponible au Japon.

Le nouveau Gigabeat, actuellement nommé MET401, peut avoir la possibilité de Wi-Fi (b+g) et roule sur Windows Embeded. Windows Embeded est un mini Windows XP. L'avantage de faire rouler quelque chose du genre sur un Gigabeat est que ça donne l'opportunité à Toshiba d'introduire toutes les sortes de programmes sur le lecteur. Par exemple, Toshiba peut inclure Internet Explorer pour naviguer, ce qui serait possible à l'aide du Wi-Fi.

En haut



EMI Music Japan

EMI Music Japan Inc. (株式会社EMIミュージック・ジャパン, Kabushiki gaisha Iiemuai Music Japan?), anciennement Toshiba EMI (東芝イーエムアイ株式会社, Tōshiba Iiemuai Kabushiki gaisha?, également connu sous le nom TOEMI), est un label de musique japonais. Il devient une filiale à 100% du major du disque EMI en 2007 après que Toshiba a décidé de vendre ses parts détenues alors à hauteur de 45%,.

En haut



Source : Wikipedia