Éclairage

Tendances modernes dans le développement de systèmes photogrammétriques numériques. Tendances dans le développement des récepteurs radio


Les dispositifs de transmission radio (RPDU) sont utilisés dans les domaines des télécommunications, de la radiodiffusion télévisuelle et radiophonique, du radar et de la radionavigation. Le développement rapide de la microélectronique, des microcircuits analogiques et numériques, des microprocesseurs et de la technologie informatique a un impact significatif sur le développement de la technologie de transmission radio, à la fois en termes d'une forte augmentation de la fonctionnalité et en termes d'amélioration de ses performances. Ceci est réalisé grâce à l'utilisation de nouveaux principes pour construire des schémas structurels d'émetteurs et de mise en œuvre de circuits de leurs nœuds individuels qui mettent en œuvre des méthodes numériques pour générer, traiter et convertir des oscillations et des signaux ayant différentes fréquences et niveaux de puissance.

Les émetteurs radio qui utilisent des méthodes numériques pour générer, traiter et convertir des oscillations et des signaux seront appelés dispositifs de transmission radio numérique (TsRPdU).

Considérer exigences modernes aux RPDU, qui posent des problèmes qui ne peuvent en principe pas être résolus par des méthodes de circuits analogiques, ce qui nécessite l'utilisation de technologies numériques dans les RPDU.

Dans le domaine des télécommunications et de la radiodiffusion, on peut distinguer les principales exigences suivantes, en constante augmentation, pour les systèmes de transmission d'informations, dont les éléments sont des RPdS :

Assurer l'immunité au bruit dans un air radio surchargé ;

Augmenter le débit des canaux ;

Rentabilité de l'utilisation de la ressource fréquence dans la communication multicanal ;

Qualité du signal améliorée et compatibilité électromagnétique.

La volonté de répondre à ces exigences conduit à l’émergence de nouveaux standards de communication et de diffusion. Parmi les GSM déjà connus, DECT, SmarTrunkII, TETRA, DRM, etc.

La principale direction du développement systèmes de communication est de fournir un accès multiple, dans lequel la ressource fréquentielle est partagée et utilisée simultanément par plusieurs abonnés. Les technologies d'accès multiples comprennent TDMA, FDMA, CDMA et des combinaisons de celles-ci. Dans le même temps, les exigences en matière de qualité de communication sont également accrues, c'est-à-dire l'immunité au bruit, la quantité d'informations transmises, la sécurité des informations et l'identification de l'utilisateur, etc. Cela conduit à la nécessité d'utiliser des types complexes de modulation, de codage des informations, de réglage continu et rapide de la fréquence de fonctionnement, de synchronisation des cycles de fonctionnement du émetteur, récepteur et station de base, tout en garantissant une stabilité à haute fréquence et une grande précision de la modulation d'amplitude et de phase aux fréquences de fonctionnement mesurées en gigahertz. Concernant systèmes de diffusion, ici la principale exigence est d'améliorer la qualité du signal du côté de l'abonné, ce qui entraîne là encore une augmentation de la quantité d'informations transmises en raison du passage aux normes de diffusion numérique. La stabilité temporelle des paramètres de ces émetteurs radio - fréquence, modulation - est également extrêmement importante. Il est évident que les circuits analogiques ne sont pas capables de faire face à de telles tâches, et génération de signaux les émetteurs doivent être effectués par des méthodes numériques.

La technologie moderne de transmission radio ne peut être imaginée sans outils logiciels intégrés. contrôle des modes fonctionnement des cascades, autodiagnostic, auto-calibrage, autorégulation et protection contre urgences, y compris la redondance automatique. Ces fonctions dans les émetteurs sont assurées par des microcontrôleurs spécialisés, combinant parfois les fonctions de formation numérique des signaux transmis. Contrôle à distance des modes de fonctionnement souvent utilisé à l'aide d'un ordinateur distant via une interface numérique spéciale. Tout émetteur ou émetteur-récepteur moderne fournit un certain niveau service Pour utilisateur, qui comprend le contrôle numérique de l'émetteur (par exemple, à partir du clavier) et l'indication des modes de fonctionnement sous forme graphique et textuelle sur l'écran d'affichage. Il est évident que l'on ne peut pas se passer de systèmes de contrôle à microprocesseur pour l'émetteur, qui déterminent ses paramètres les plus importants.

La production d’émetteurs d’un tel niveau de complexité ne serait pas rentable du point de vue économique dans le cas de leur conception analogique. Ce sont les moyens des microcircuits numériques, qui permettent de remplacer des blocs entiers d'émetteurs classiques, qui permettent de réduire considérablement améliorer les dimensions globalesémetteurs (rappelez-vous Téléphones portables), obtenir une répétabilité des paramètres, élevée fabricabilité et simplicité dans leur fabrication et leur réglage.

Il est évident que l'émergence et le développement des dispositifs de transmission radio numériques ont constitué une étape inévitable et nécessaire dans l'histoire de l'ingénierie radio et des télécommunications, permettant de résoudre de nombreux problèmes urgents inaccessibles aux circuits analogiques.

À titre d'exemple, considérons un émetteur radio numérique de diffusion HARRIS PLATINE Z(Fig. 1.1), qui présente les principales caractéristiques suivantes (informations sur www.pirs.ru) :

A) Excitateur FM HARRIS DIGITTM entièrement numérique avec oscillateur stéréo DSP intégré. En tant que premier excitateur FM entièrement numérique au monde, HARRIS DIGITTM accepte numériquement les fréquences audio AES/EBU et génère la fréquence porteuse RF la plus entièrement modulée numériquement, ce qui entraîne moins de bruit et de distorsion que tout autre émetteur FM (qualité AF numérique 16 bits).

B) Le système de démarrage rapide atteint pleine puissance pour tous les indicateurs dans les 5 secondes après la mise sous tension.

C) Le contrôleur sur microprocesseurs permet un contrôle, un diagnostic et un affichage complets. Comprend une logique et des commandes intégrées pour la commutation entre les excitateurs HARRIS DIGITTM principaux/supplémentaires et le préamplificateur de puissance (PPA).

D) Le schéma haut débit permet de refuser le réglage dans la plage de 87 à 108 MHz (avec l'option N+1). Les changements de fréquence peuvent être effectués manuellement avec des commutateurs en moins de 5 minutes et en moins de 0,5 seconde avec un contrôleur externe en option.

Figure 1.1

Un autre exemple d'émetteur radio numérique est un dispositif de transmission de données sans fil. BLUETOOTH(informations www.webmarket.ru), qui sera discuté plus en détail au paragraphe 3.1 (Fig. 1.2 et tableau 1.1).

Figure 1.2.

Tableau 1.1. Brèves spécifications Bluetooth

Soulignons donc les principaux domaines d'application des technologies numériques pour générer et traiter des signaux dans les appareils de transmission radio.

1. Formation et conversion de signaux basse fréquence d'informations analogiques et numériques, incl. appairage d'un ordinateur avec un émetteur radio (signaux de groupe, encodage, conversion de signaux analogiques en numériques ou vice versa).

2. Méthodes numériques de modulation des signaux RF.

3. Synthèse de fréquence et contrôle de fréquence.

4. Transfert numérique du spectre du signal.

5. Méthodes numériques pour amplifier la puissance des signaux RF.

6. Systèmes numériques pour la régulation et le contrôle automatiques des émetteurs, de l'indication et du contrôle.

Les sections suivantes fournissent des informations plus détaillées sur chacune de ces applications numériques dans les émetteurs radio.


Bibliographie

1. Systèmes de réception radio numérique / Éd. MI. Jodzishski. Moscou : Radio et communication, 1990. 208 p.

2. Améliorer l'efficacité des puissants dispositifs de transmission radio / Ed. A.D. Artyma. Moscou : Radio et communication, 1987. 175 p.

3. Goldenberg L.M., Matyushkin B.D., Polyak M.N. Traitement du signal numérique : Proc. allocation pour les universités. M. : Radio et communication, 1990. 256 p.

4. Semenov B.Yu. Accordeur moderne de vos propres mains. M. : SOLON_R. 2001. 352 p.

12.5. TENDANCES DANS LE DÉVELOPPEMENT DES ÉQUIPEMENTS DE MESURE ÉLECTRIQUE

Utiliser les acquis de la microélectronique et l'informatique dans la technologie de mesure électrique, l'une des principales tendances de son développement est actuellement déterminée, caractérisée par l'informatisation des instruments de mesure. Considérons les formes caractéristiques de manifestation de cette tendance.

Tout d'abord, cela se manifeste par le remplacement progressif des instruments de mesure analogiques par des instruments numériques, qui, à leur tour, deviennent plus polyvalents et « intelligents ».

A titre d'exemple, considérons les étapes de développement de la production d'oscilloscopes chez Hewlett-Packard, l'un des leaders dans ce domaine. La société a lancé ses premiers oscilloscopes à tube HP130A et HP150A en 1956, et son premier semi-conducteur (HP180A) en 1966. Dans les années 80, cette société et d'autres produisaient grande quantité oscilloscopes analogiques à des fins diverses, et beaucoup d'entre eux avaient d'excellents spécifications techniques. Cependant, déjà en 1980, Hewlett-Packard est arrivé à la conclusion que la technologie numérique pouvait offrir une solution meilleure et moins coûteuse au problème de l'enregistrement, de l'affichage et du traitement des signaux analogiques, et depuis 1986, elle a complètement arrêté de produire des oscilloscopes analogiques, les remplaçant par des oscilloscopes numériques. . En 1992, l'entreprise produisait déjà toute une série d'oscilloscopes numériques ; cette série modulaire 54700 comprend, entre autres, l'unité enfichable 54721A avec une bande passante de 1 GHz et un taux d'échantillonnage de 4 GoS/s.

Un processus similaire a eu lieu dans la société "Gold" (Gould, USA). La société a lancé son premier oscilloscope numérique en 1975 et, en 1988, elle a arrêté d’en produire des analogiques. En 1992, l'entreprise a produit 15 modèles d'oscilloscopes numériques avec une bande passante de 7 à 200 MHz et une fréquence d'échantillonnage de 0,02 à 1,6 Gt/s.

Si une résolution de 8 bits est suffisante pour l'observation visuelle des processus étudiés, elle n'est souvent pas suffisante pour une analyse plus complexe et précise. Par conséquent, des travaux sont constamment menés pour améliorer la précision des oscilloscopes numériques. Par exemple, la société "Nicole Tool Corp." (Nicolet Instrument Corp., USA) propose des oscilloscopes de la série 400 avec une résolution verticale de 14 bits, ce qui est bien entendu inaccessible pour les oscilloscopes analogiques.

Les oscilloscopes numériques ont non seulement remplacé les oscilloscopes analogiques, mais ont également offert aux consommateurs de nouvelles opportunités liées à la capacité des nouveaux instruments à stocker, émettre, traiter et comparer les paramètres des signaux observés. Les oscilloscopes numériques modernes remplissent de nombreuses fonctions d'analyse du signal, notamment l'analyse du spectre à l'aide d'algorithmes de transformée de Fourier rapide. Ils peuvent avoir une imprimante ou un traceur intégré qui vous permet d'obtenir une copie papier du protocole ou du calendrier. La présence de nœuds d'interface standards permet de connecter un oscilloscope numérique à un ordinateur personnel et à un réseau informatique ; de plus, il possède lui-même les capacités d'un petit ordinateur. Des oscilloscopes similaires ont été parmi les premiers produits par les sociétés japonaises Hioki (Hioki, modèle 8850) et Yokogawa (Yokogawa, modèles 3655 et 3656).

Sur l'exemple des oscilloscopes numériques, on peut retracer l'une des directions de l'informatisation des équipements de mesure électrique. De nouveaux instruments de mesure sont créés avec le traitement numérique des signaux d'informations de mesure et la possibilité de construire sur leur base des systèmes de mesure et de calcul à des fins diverses. Dans ces instruments de mesure et les systèmes intègrent des éléments de technologie informatique qui assurent le traitement du signal numérique, l'autodiagnostic, la correction d'erreurs, la communication avec appareils externes etc.

Une autre direction est associée à l'apparition au début des années 80 et à la généralisation des ordinateurs personnels (IBM PC et autres). Si le consommateur possède un tel ordinateur, alors il dispose en réalité de nombreux composants d'un instrument de mesure informatique : un appareil informatique, un écran, un dispositif de commande, un boîtier, des alimentations, etc. Il ne manque que les dispositifs de saisie des informations de mesure. dans un ordinateur (convertisseurs de mesure analogiques, dispositifs de séparation galvanique, mise à l'échelle, normalisation et linéarisation, CAN, etc.), son traitement préliminaire (s'il est souhaitable de libérer l'ordinateur de ce travail) et un logiciel spécial.

Ainsi, dans les années 80, les dispositifs permettant de saisir des informations de mesure analogiques dans des ordinateurs personnels (PC) ont commencé à être produits en série sous la forme de cartes intégrées dans un PC croisé, sous la forme d'ensembles de modules intégrés dans un boîtier commun (caisse) d'un châssis PC extensible, ou sous forme de modules fonctionnels autonomes connectés à un PC via des connecteurs externes.

Un prétraitement efficace des informations dans de tels dispositifs est devenu possible avec l'avènement de grands circuits intégrés spécialisés - les processeurs de signaux numériques (DSP). Les premiers DSP monocristallins ont été commercialisés en 1980 par la société japonaise NIS Corp. (NEC Corp.), depuis 1983, des produits similaires sont fabriqués par Fujitsu (Fujitsu, Japon) et Texas Instruments (Texas Instruments, (USA)) ; plus tard, ils ont été rejoints par Analogue Devices (États-Unis), Motorola (Motorola, États-Unis) et d'autres.

Au moins deux caractéristiques des instruments de mesure informatiques doivent être notées. Premièrement, ils peuvent être très simplement adaptés pour mesurer diverses quantités ; par conséquent, des instruments de mesure universels sont construits sur leur base. Deuxièmement, une part croissante de leur coût est occupée par le coût des logiciels, qui libèrent le consommateur de nombreuses opérations de routine et lui procurent un maximum de commodité pour résoudre les principales tâches de mesure.

Un exemple est celui des instruments de mesure dits virtuels. Dans ceux-ci, l'image du panneau avant de l'appareil de mesure est formée par programme sur l'écran du PC. Ce panneau n'existe pas réellement physiquement et l'appareil lui-même se compose, par exemple, d'un PC et d'une carte de mesure intégrée. Néanmoins, le consommateur a l'illusion complète de travailler avec un appareil conventionnel : il peut appuyer sur les touches de commande, choisir la plage de mesure, le mode de fonctionnement, etc., et recevoir au final le résultat de la mesure.

Poursuite de la microminiaturisation Composants electroniques a conduit, à partir des années 80, au développement d'une autre direction de l'informatisation des instruments de mesure - à la création non seulement d'appareils et de systèmes « intelligents », mais également de capteurs « intelligents ».

Un tel capteur contient non seulement un élément sensible, mais également un dispositif électronique complexe composé de convertisseurs analogiques et analogiques-numériques, ainsi que de dispositifs à microprocesseur dotés d'un logiciel approprié. La conception du capteur « intelligent » permet de l'installer à proximité immédiate de l'objet de recherche et d'effectuer l'un ou l'autre traitement des informations de mesure. Dans le même temps, les informations sont transmises au centre de collecte de données, qui peut être situé à une distance considérable de l'objet, à l'aide de signaux à haute immunité au bruit, ce qui augmente la précision des mesures.

A titre d'exemple, considérons les capacités techniques d'un capteur de pression absolue « intelligent » fabriqué par la société japonaise Fuji (FUJI, modèle FKA), qui mesure la pression d'un liquide, d'un gaz ou d'une vapeur dans la plage de 0,16 à 30 bars avec une erreur ne dépassant pas 0, 2% dans la plage de température de fonctionnement de -40 à + 85°С. Il se compose d'un élément de détection capacitif et appareil électronique, monté dans un boîtier en acier d'un volume de Boîte d'allumettes. Il est alimenté par une source externe. courant continu avec une tension de 11 à 45 V, qui peut être localisée à plusieurs kilomètres du capteur dans le centre de collecte de données. Les informations de mesure sont transmises via les fils de la source d'alimentation (capteur bifilaire) sous forme analogique - courant continu de 4 à 20 mA, ainsi qu'un signal numérique superposé au signal analogique.

Le capteur peut être facilement converti en instrument de mesure en y connectant un affichage numérique à cristaux liquides à quatre chiffres ou un millivoltmètre analogique. De tels capteurs peuvent être contrôlés à l'aide de consoles spéciales et combinés dans un système de mesure. Chaque capteur effectue un autodiagnostic, une linéarisation de la fonction de conversion, une mise à l'échelle, un réglage de la plage de mesure, une compensation de température, etc.

Parallèlement à l'informatisation des équipements de mesure électriques, leur support métrologique est intensément développé et des normes de haute précision deviennent disponibles pour l'industrie. Par exemple, en 1982, Fluke (États-Unis) a lancé un calibrateur de tension pour tester les multimètres 6,5 et 7,5 bits. Cet appareil (modèle 5440A), construit sur la base d'un convertisseur numérique-analogique avec modulation de largeur d'impulsion, fournit une erreur relative ne dépassant pas 0,0004 % lorsqu'il travaille directement dans l'atelier.

Pour construire des instruments de mesure modernes dotés des caractéristiques métrologiques les plus élevées, notamment des étalons de volts et d'ampères, l'utilisation des effets quantiques de B. Josephson et Hall revêt une importance décisive.

L'effet B. Josephson a été prédit en 1962 par le physicien anglais B. Josephson et découvert expérimentalement en 1963 par les physiciens américains P. Anderson et J. Rowell. L’une des manifestations de cet effet est la suivante. Lorsqu'un contact de B. Josephson, une fine couche diélectrique entre deux supraconducteurs, est irradié par un champ électromagnétique haute fréquence, des surtensions proportionnelles à la fréquence apparaissent sur la caractéristique courant-tension d'un tel contact. La grande précision de reproduction des surtensions sur les contacts de B. Josephson a permis dans les années 80 de construire des étalons de volts avec des erreurs ne dépassant pas 0,0001 %.

L'utilisation de l'effet B. Josephson et du phénomène de quantification du champ magnétique dans les supraconducteurs à connexion unique ont conduit à la création de dispositifs d'interférence quantique supraconducteurs extrêmement sensibles - les SQUID qui mesurent les flux magnétiques. L'utilisation de convertisseurs de mesure de diverses grandeurs physiques en flux magnétiques a permis de créer des instruments et appareils de mesure à des fins diverses basés sur des SQUID, qui ont une sensibilité record : galvanomètres, comparateurs, thermomètres, magnétomètres, gradiomètres, amplificateurs. Sur la base de l'effet B. Josephson, d'autres dispositifs sont également en cours de construction pour traiter les informations de mesure, par exemple des CAN et des processeurs de signaux numériques avec des fréquences d'horloge supérieures à 10 GHz.

L'effet Hall quantique a été découvert en 1980 par K. von Klitzing (Allemagne). L'effet est observé lorsque basses températures(environ 1 K) et apparaît sous la forme d'une coupe horizontale sur le graphique de la dépendance de la résistance Hall des capteurs Hall semi-conducteurs à l'induction magnétique. L'erreur de la résistance correspondant à cette section ne dépasse pas 0,00001 %. Cela a permis d’utiliser l’effet Hall quantique pour créer des étalons de résistance électrique.

L'utilisation des effets quantiques de B. Josephson et Hall a permis d'élaborer des normes pour le courant électrique continu, dépassant en précision les normes basées sur les échelles de courant, qui ont été utilisées pendant presque toute la seconde moitié du XXe siècle. Dans notre pays, un nouvel étalon primaire d'État a été introduit depuis 1992. Il reproduit l'ampère avec une erreur ne dépassant pas 0,00002 % (les échelles actuelles prévoyaient une erreur ne dépassant pas 0,0008 %).

Les effets considérés se manifestent à basse température, ce qui constitue le principal obstacle à leur large utilisation. Cependant, la découverte en 1986 des supraconducteurs à haute température laisse espérer la création d'instruments de mesure construits sur des circuits intégrés et fonctionnant à des températures de l'ordre de 100 K. Ce serait un nouveau saut qualitatif dans le développement de la technologie de mesure électrique.

BIBLIOGRAPHIE

12.1. Despre M. A propos du galvanomètre dont les lectures sont proportionnelles à l'intensité du courant // Électricité. 1884. N° 24.

12.2. Chatelain M. Compteurs énergie électrique// Électricité. 1893. N° 20.

12.3. Gérard Éric. Cours d'électricité. T. 1. Saint-Pétersbourg, 1896.

12.4. Chernyshev A. Méthodes de mesure des hautes tensions et un nouveau voltmètre haute tension absolu // Électricité. 1910. N° 15.

12.5. Feringer A.B. Les derniers instruments de mesure (revue) // Électricité. 1912. N° 1.

12.6. Malikov M.F. Les principales unités électriques dans leur état actuel // Électricité. 1924. N° 3.

12.7. Grun K. Appareils de mesure électrotechniques. Moscou : Gostekhizdat, 1927.

12.8. Bandenburger V.I. Télémétrie électrique // Électricité. 1931. N° 17.

12.9. Choumilovski N.N. Compteurs électriques : théorie, calcul, conception. L. : Kubuch, 1932.

12.10. Stekolnikov I.S. Oscilloscope cathodique pour la photographie par contact // Électricité. 1933. N° 12.

12.11. Gorodetski S.S. Mesures sur haute tension. M.-L. : Energoizdat, 1934.

12.12. Conceptions d'instruments de mesure électriques / Ed. N.N. Ponomarev. L.-M. : Energoizdat, 1935.

12.13. Keynat G. Appareils de mesure électrique. T. 1. L. : Institut industriel de Léningrad, 1935.

12.14. Keykat G. Appareils de mesure électriques. T.2. Léningrad : Institut industriel de Léningrad, 1937.

12h15. Kouznetsov B.G. Histoire de l'ingénierie énergétique. Moscou : Gostekhizdat, 1937.

12.16. Mesures électriques et magnétiques / Ed. PAR EXEMPLE. Chramkov. M.-L. : ONTI, 1937.

12.17. Temnikov F.E., Kharchenko P.P. Mesures électriques de grandeurs non électriques. M.-L. : Gosenergoizdat, 1948.

12.18. Shkurin G.P. Instruments de mesure électriques : Manuel-catalogue M. : Mashgiz, 1948.

12.19. Turichine A.M. Mesures électriques de grandeurs non électriques. M.-L. : Gosenergoizdat, 1951.

12h20. Karandeev K.B. Méthodes de mesures électriques. M.-L. : Gosenergoizdat, 1952.

12.21. Belkind L.D., Confédérés I.Ya., Shneiberg Ya.A. Histoire de la technologie. M. : Gosenergoizdat, 1956.

12.22. Histoire de l'ingénierie énergétique de l'URSS. T.2. Ingénierie électrique. M. : Gosenergoizdat, 1957.

12.23 Veselovsky O.N. Mikhaïl Osipovitch Dolivo-Dobrovolsky. M. : Gosenergoizdat, 1958.

12.24. Histoire de l'ingénierie énergétique / L.D. Belkind, O.N. Veselovsky, I.Ya. Confédérés, Ya.A. Schneiberg. M. : Gosenergoizdat, 1960.

12h25. Temnikov F.E. La théorie du déploiement de systèmes. M.-L. : Gosenergoizdat, 1963.

12.26 Veselovsky O.N., Shneiberg Ya.A. La technologie énergétique et son développement. M. : lycée, 1976.

12.27 Acier R. Principes de modulation delta. Moscou : Communication, 1979.

12.28. Aroutyunov V.O. Ouvrages sélectionnés dans le domaine des mesures électriques, de la théorie et des problèmes appliqués de métrologie. M. : Maison d'édition de normes, 1979.

12.29. Barone A., Paterno D. L'effet Josephson : physique et applications. M. : Mir, 1984.

12h30. Sibert U.M. Chaînes, signaux, systèmes. Ch. 1.M. : Mir, 1988.

12.31. Electronique : Dictionnaire encyclopédique / Ch. éd. V.G. Kolesnikov. M. : Sov. encyclopédie, 1991.

12.32. La magie des circuits analogiques // Electronique (traduction russe). 1993. N° 11/12.

12.33. Wheeler R. Tests et mesures depuis 40 ans // Electronique (traduction russe). 1993. N° 11/12.

12.34. Veselovsky O.N., Shneiberg Ya.A. Essais sur l'histoire de l'électrotechnique. Moscou : Maison d'édition MPEI, 1993.

12 h 35. Gerasimov V.G., Orlov I.N., Filippov L.I. De la connaissance à la créativité. Moscou : Maison d'édition MEI, 1995.

Extrait du livre Voiture à haute fréquence l'auteur Babat George

LA VICTOIRE DE LA TECHNOLOGIE SOVIETIQUE Autrefois, un inventeur solitaire pouvait créer quelque chose de nouveau. La machine à vapeur a été inventée et construite par Polzunov. Dans une mine lointaine, Cherepanov a inventé et construit une locomotive à vapeur. L'inventeur, le capitaine Mozhaisky, a créé un avion. Et Mozhaisky, et Polzunov, et

Extrait du livre Instrumentation auteur Babaev M A

56. Conditions préalables au développement réussi d'une instrumentation domestique moderne. Les principales tendances du développement de l'instrumentation Il y a à peine 20 ans, on ne pouvait que rêver du niveau actuel d'informatisation du pays, aujourd'hui tout cela est une réalité. En lien avec tout cela

Extrait du livre Travaux de métal auteur Korshever Natalia Gavrilovna

Techniques de travail des métaux décoratifs Cette partie du livre présente les techniques de base du travail des métaux décoratifs. Dans les temps anciens, de nombreux forgerons maîtrisaient un riche ensemble de techniques et créaient de merveilleuses œuvres d'art dignes de la cour royale. C'est pourquoi

Extrait du livre Complexe de certification systèmes techniques auteur Vladimir Smirnov

4.3. Certification de qualité des équipements aéronautiques 4.3.1. Normes de navigabilité L'Organisation de l'aviation civile internationale (OACI), dont l'une des tâches principales est d'assurer la sécurité des vols, a établi que les pays membres de l'OACI doivent délivrer

Extrait du livre Auto-INVASION sur l'URSS. Voitures de trophée et de prêt-bail auteur Sokolov Mikhaïl Vladimirovitch

A l'Exposition des équipements capturés Pour avoir une meilleure idée de l'atmosphère de ces salons, nous citerons un article du célèbre designer automobile russe Yu.

Extrait du livre Les robots d'aujourd'hui et de demain auteur Gettner Reinhard

Tendances de développement Étant donné que le développement, la production et l'application des robots industriels progressent rapidement et de manière dynamique, il devient difficile de généraliser à l'avenir les résultats des travaux scientifiques et techniques internationaux, respectivement nationaux. La dynamique de ces

Extrait du livre 100 grandes réalisations dans le monde de la technologie auteur Zigunenko Stanislav Nikolaïevitch

Miracles de la technologie militaire Tout le monde sait que les combats sont mauvais. Et se battre – encore plus. Néanmoins, tout au long de leur histoire, les peuples n'ont fait que se battre entre eux, et le plus meilleures idées, les inventions sont principalement utilisées dans le domaine militaire

Extrait du livre La perfection de la technologie auteur Jünger Friedrich Georg

LIVRE PREMIER LA PERFECTION DE LA TECHNOLOGIE Devise : Il y a une place pour tout, mais pour chaque chose sa propre. Une inscription dans une boîte à outils 1 Les œuvres du genre de l'utopie technique, comme le montre l'observation, ne sont pas rares en littérature, et bien au contraire : elles sont si nombreuses et la demande du lecteur les demande

Extrait du livre L'art du tissage à la main auteur Tsvetkova Natalia Nikolaïevna

Y A-T-IL DES LIMITES À LA PERFECTION DE LA TECHNOLOGIE ? Cette édition comprend deux ouvrages de Friedrich Georg Jünger (1898-1977) : La perfection de la technologie et Les machines et la propriété. Ils sont unis par un thème : la technologie. Par conséquent, obéir à l’hypnose des universitaires établis

Extrait du livre Nanotechnologie [Science, innovation et opportunités] par Foster Lynn

1.4 Techniques de tissage traditionnelles L'évolution des métiers à tisser a conduit au développement de diverses techniques de tissage manuel. L'une des méthodes les plus anciennes d'obtention de tissus ornementés est le tissage dit « hypothécaire ». On savait dans l'Antiquité

Extrait du livre Histoire du génie électrique auteur Équipe d'auteurs

16.2. Tendances dans le développement des méthodes d'administration de médicaments La nanotechnologie joue un rôle important dans le développement de méthodes d'introduction et d'administration de médicaments dans l'organisme, en particulier en ce qui concerne les petites molécules et les protéines. Des développements très intéressants dans les méthodes de saisie sont actuellement en cours.

Du livre Règlement technique sur les exigences la sécurité incendie. la loi fédérale N° 123-FZ du 22 juillet 2008 auteur Équipe d'auteurs

4.14. INFLUENCE DES ÉQUIPEMENTS INFORMATIQUES SUR LE DÉVELOPPEMENT DE FC Pour créer de nouveaux appareils en utilisant leurs modèles mathématiques, il est important de représenter les caractéristiques quantitatives qui déterminent les processus du nouvel appareil étudié, sous la forme

Extrait du livre Métrologie très générale auteur Ashkinazi Léonid Alexandrovitch

11.4.4. DÉVELOPPEMENT DE LA TECHNOLOGIE DE L'INFORMATION SUR LES SEMI-CONDUCTEURS La création des transistors dans les années 50 a marqué le début du développement de la technologie de l'information sur les semi-conducteurs.

Extrait du livre Fours à micro-ondes nouvelle génération [Appareil, Dépannage, Réparation] auteur Kachkarov Andreï Petrovitch

Extrait du livre de l'auteur

Normes pour la physique et la technologie Norme de longueur Au début, les normes étaient naturelles, par exemple, la norme de longueur était peut-être la ceinture du roi Charles telle ou telle. Ensuite, le roi s’est un peu rongé et l’économie est devenue folle. Par conséquent, nous avons pris la longueur du pendule avec une certaine période (en liant

Extrait du livre de l'auteur

3.7. Tendances de développement et nouvelles technologies Production four à micro-ondes est associé au développement continu de la pensée créative, à l'utilisation de nouvelles technologies, parmi lesquelles, tout d'abord, il convient de noter l'invention et l'utilisation d'un revêtement biocéramique, un système

TENDANCES DANS LE DÉVELOPPEMENT DES ÉQUIPEMENTS DE MESURE ÉLECTRIQUE

L'utilisation des acquis de la microélectronique et de l'informatique dans la technologie de mesure électrique détermine actuellement l'une des principales tendances de son développement, caractérisée par l'informatisation des instruments de mesure. Considérons les formes caractéristiques de manifestation de cette tendance.

Tout d'abord, cela se manifeste par le remplacement progressif des instruments de mesure analogiques par des instruments numériques, qui, à leur tour, deviennent plus polyvalents et « intelligents ».

A titre d'exemple, considérons les étapes de développement de la production d'oscilloscopes chez Hewlett Packard, l'un des leaders dans ce domaine. La société a lancé ses premiers oscilloscopes à tube HP130A et HP150A en 1956, et son premier semi-conducteur (HP180A) en 1966. Dans les années 80, cette société et d'autres ont produit un grand nombre d'oscilloscopes analogiques à des fins diverses, et beaucoup d'entre eux avaient d'excellentes spécifications. . Cependant, déjà en 1980, Hewlett-Packard est arrivé à la conclusion que la technologie numérique pouvait offrir une solution meilleure et moins coûteuse au problème de l'enregistrement, de l'affichage et du traitement des signaux analogiques, et depuis 1986, elle a complètement arrêté de produire des oscilloscopes analogiques, les remplaçant par des oscilloscopes numériques. . En 1992, l'entreprise produisait déjà toute une série d'oscilloscopes numériques ; cette série modulaire 54700 comprend, entre autres, l'unité enfichable 54721A avec une bande passante de 1 GHz et un taux d'échantillonnage de 4 GoS/s.

Un processus similaire a eu lieu dans la société "Gold" (Gould, USA). La société a lancé son premier oscilloscope numérique en 1975 et, en 1988, elle a arrêté d’en produire des analogiques. En 1992, l'entreprise a produit 15 modèles d'oscilloscopes numériques avec une bande passante de 7 à 200 MHz et une fréquence d'échantillonnage de 0,02 à 1,6 Gt/s.

Si une résolution de 8 bits est suffisante pour l'observation visuelle des processus étudiés, elle n'est souvent pas suffisante pour une analyse plus complexe et précise. Par conséquent, des travaux sont constamment menés pour améliorer la précision des oscilloscopes numériques. Par exemple, la société "Nicole Tool Corp." (Nicolet Instrument Corp., USA) propose des oscilloscopes de la série 400 avec une résolution verticale de 14 bits, ce qui est bien entendu inaccessible pour les oscilloscopes analogiques.

Les oscilloscopes numériques ont non seulement remplacé les oscilloscopes analogiques, mais ont également offert aux consommateurs de nouvelles opportunités liées à la capacité des nouveaux instruments à stocker, émettre, traiter et comparer les paramètres des signaux observés. Les oscilloscopes numériques modernes remplissent de nombreuses fonctions d'analyse du signal, notamment l'analyse du spectre à l'aide d'algorithmes de transformée de Fourier rapide. Ils peuvent avoir une imprimante ou un traceur intégré qui vous permet d'obtenir une copie papier du protocole ou du calendrier. La présence de nœuds d'interface standards permet de connecter un oscilloscope numérique à un ordinateur personnel et à un réseau informatique ; de plus, il possède lui-même les capacités d'un petit ordinateur. Des oscilloscopes similaires ont été parmi les premiers produits par les sociétés japonaises Hioki (Hioki, modèle 8850) et Yokogawa (Yokogawa, modèles 3655 et 3656).

Sur l'exemple des oscilloscopes numériques, on peut retracer l'une des directions de l'informatisation des équipements de mesure électrique. De nouveaux instruments de mesure sont créés avec le traitement numérique des signaux d'informations de mesure et la possibilité de construire sur leur base des systèmes de mesure et de calcul à des fins diverses. Des éléments de technologie informatique sont intégrés à ces instruments et systèmes de mesure, assurant le traitement du signal numérique, l'autodiagnostic, la correction d'erreurs, la communication avec des appareils externes, etc.

Une autre direction est associée à l'apparition au début des années 80 et à la généralisation des ordinateurs personnels (IBM PC et autres). Si le consommateur possède un tel ordinateur, alors il dispose en réalité de nombreux composants d'un instrument de mesure informatique : un appareil informatique, un écran, un dispositif de commande, un boîtier, des alimentations, etc. Il ne manque que les dispositifs de saisie des informations de mesure. dans un ordinateur (convertisseurs de mesure analogiques, dispositifs de séparation galvanique, mise à l'échelle, normalisation et linéarisation, CAN, etc.), son traitement préliminaire (s'il est souhaitable de libérer l'ordinateur de ce travail) et un logiciel spécial.

Ainsi, dans les années 80, les dispositifs permettant de saisir des informations de mesure analogiques dans des ordinateurs personnels (PC) ont commencé à être produits en série sous la forme de cartes intégrées dans un PC croisé, sous la forme d'ensembles de modules intégrés dans un boîtier commun (caisse) d'un châssis PC extensible, ou sous forme de modules fonctionnels autonomes connectés à un PC via des connecteurs externes.

Un prétraitement efficace des informations dans de tels dispositifs est devenu possible avec l'avènement de grands circuits intégrés spécialisés - les processeurs de signaux numériques (DSP). Les premiers DSP monocristallins ont été commercialisés en 1980 par la société japonaise NIS Corp. (NEC Corp.), depuis 1983, des produits similaires sont fabriqués par Fujitsu (Fujitsu, Japon) et Texas Instruments (Texas Instruments, (USA)) ; plus tard, ils ont été rejoints par Analogue Devices (États-Unis), Motorola (Motorola, États-Unis) et d'autres.

Au moins deux caractéristiques des instruments de mesure informatiques doivent être notées. Premièrement, ils peuvent être très facilement adaptés pour mesurer diverses quantités ; par conséquent, des instruments de mesure universels sont construits sur leur base. Deuxièmement, une part croissante de leur coût est occupée par le coût des logiciels, qui libèrent le consommateur de l'exécution de nombreuses opérations de routine et lui procurent un maximum de commodité pour résoudre les principales tâches de mesure.

Un exemple est celui des instruments de mesure dits virtuels. Dans ceux-ci, l'image du panneau avant de l'appareil de mesure est formée par programme sur l'écran du PC. Ce panneau n'existe pas réellement physiquement et l'appareil lui-même se compose, par exemple, d'un PC et d'une carte de mesure intégrée. Néanmoins, le consommateur a l'illusion complète de travailler avec un appareil conventionnel : il peut appuyer sur les touches de commande, choisir la plage de mesure, le mode de fonctionnement, etc., et recevoir au final le résultat de la mesure.

La poursuite de la microminiaturisation des composants électroniques a conduit, depuis les années 1980, au développement d'un autre domaine d'informatisation des instruments de mesure - à la création non seulement de dispositifs et de systèmes « intelligents », mais également de capteurs « intelligents ».

Un tel capteur contient non seulement un élément sensible, mais également un dispositif électronique complexe composé de convertisseurs analogiques et analogiques-numériques, ainsi que de dispositifs à microprocesseur dotés d'un logiciel approprié. La conception du capteur « intelligent » permet de l'installer à proximité immédiate de l'objet de recherche et d'effectuer l'un ou l'autre traitement des informations de mesure. Dans le même temps, les informations sont transmises au centre de collecte de données, qui peut être situé à une distance considérable de l'objet, à l'aide de signaux à haute immunité au bruit, ce qui augmente la précision des mesures.

A titre d'exemple, considérons les capacités techniques d'un capteur de pression absolue « intelligent » fabriqué par la société japonaise Fuji (FUJI, modèle FKA), qui mesure la pression d'un liquide, d'un gaz ou d'une vapeur dans la plage de 0,16 à 30 bars avec une erreur ne dépassant pas 0, 2% dans la plage de température de fonctionnement de -40 à + 85°С. Il se compose d'un élément de détection capacitif et d'un dispositif électronique montés dans un boîtier en acier de la taille d'une boîte d'allumettes. Il est alimenté par une source externe de 11 à 45 V DC, qui peut être située à plusieurs kilomètres du capteur dans le centre de collecte de données. Les informations de mesure sont transmises via les fils de la source d'alimentation (capteur bifilaire) sous forme analogique - courant continu de 4 à 20 mA, ainsi qu'un signal numérique superposé au signal analogique.

Le capteur peut être facilement converti en instrument de mesure en y connectant un affichage numérique à cristaux liquides à quatre chiffres ou un millivoltmètre analogique. De tels capteurs peuvent être contrôlés à l'aide de consoles spéciales et combinés dans un système de mesure. Chaque capteur effectue un autodiagnostic, une linéarisation de la fonction de conversion, une mise à l'échelle, un réglage de la plage de mesure, une compensation de température, etc.

Parallèlement à l'informatisation des équipements de mesure électriques, leur support métrologique est intensément développé et des normes de haute précision deviennent disponibles pour l'industrie. Par exemple, en 1982, Fluke (États-Unis) a lancé un calibrateur de tension pour tester les multimètres à 6,5 et 7,5 chiffres. Cet instrument (modèle 5440A), construit sur la base d'un DAC à modulation de largeur d'impulsion, fournit une erreur relative ne dépassant pas 0,0004 % lorsqu'on travaille directement dans l'atelier.

Pour construire des instruments de mesure modernes dotés des caractéristiques métrologiques les plus élevées, notamment des étalons de volts et d'ampères, l'utilisation des effets quantiques de B. Josephson et Hall revêt une importance décisive.

L'effet B. Josephson a été prédit en 1962 par le physicien anglais B. Josephson et découvert expérimentalement en 1963 par les physiciens américains P. Anderson et J. Rowell. L’une des manifestations de cet effet est la suivante. Lorsqu'un contact de B. Josephson, une fine couche de diélectrique entre deux supraconducteurs, est irradié par un champ électromagnétique haute fréquence, des surtensions proportionnelles à la fréquence apparaissent sur la caractéristique courant-tension d'un tel contact. La grande précision de reproduction des surtensions sur les contacts de B. Josephson a permis dans les années 80 de construire des étalons de volts avec des erreurs ne dépassant pas 0,0001 %.

L'utilisation de l'effet B. Josephson et du phénomène de quantification du champ magnétique dans les supraconducteurs à connexion unique ont conduit à la création de dispositifs d'interférence quantique supraconducteurs extrêmement sensibles - les SQUID qui mesurent les flux magnétiques. L'utilisation de convertisseurs de mesure de diverses grandeurs physiques en flux magnétiques a permis de créer des instruments et appareils de mesure à des fins diverses basés sur des SQUID, qui ont une sensibilité record : galvanomètres, comparateurs, thermomètres, magnétomètres, gradiomètres, amplificateurs. Sur la base de l'effet B. Josephson, d'autres dispositifs sont également en cours de construction pour traiter les informations de mesure, par exemple des CAN et des processeurs de signaux numériques avec des fréquences d'horloge supérieures à 10 GHz.

L'effet Hall quantique a été découvert en 1980 par K. von Klitzing (Allemagne). L'effet est observé à basse température (environ 1 K) et se manifeste par une section horizontale sur le graphique de la dépendance de la résistance Hall des capteurs Hall semi-conducteurs à l'induction magnétique. L'erreur de la résistance correspondant à cette section ne dépasse pas 0,00001 %. Cela a permis d’utiliser l’effet Hall quantique pour créer des étalons de résistance électrique.

L'utilisation des effets quantiques de B. Josephson et Hall a permis d'élaborer des normes pour le courant électrique continu, dépassant en précision les normes basées sur les échelles de courant, qui ont été utilisées pendant presque toute la seconde moitié du XXe siècle. Dans notre pays, un nouvel étalon primaire d'État a été introduit depuis 1992. Il reproduit l'ampère avec une erreur ne dépassant pas 0,00002 % (les échelles actuelles prévoyaient une erreur ne dépassant pas 0,0008 %).

Les effets considérés se manifestent à basse température, ce qui constitue le principal obstacle à leur large utilisation. Cependant, la découverte en 1986 des supraconducteurs à haute température laisse espérer la création d'instruments de mesure construits sur des circuits intégrés et fonctionnant à des températures de l'ordre de 100 K. Ce serait un nouveau saut qualitatif dans le développement de la technologie de mesure électrique.


Le terme " électricité» a été introduit par A.M. Ampère (voir § 2.5).

Si le circuit est alimenté par une batterie, alors le courant est proportionnel à la FEM de l'élément (au numérateur), et au dénominateur, en plus de la résistance du circuit, la résistance interne de l'élément est également indiquée.

Le terme « électrotechnique » a commencé à être utilisé précisément après l'Exposition internationale « électrotechnique » de 1881 et le congrès des électriciens qui l'a suivi.

Sans ligne électrique CC 800 kV (0,48 mille km).

Indiqué tensions de ligne dans le groupe des transformateurs.

Chaque dimension correspondait à son propre diamètre intérieur du boîtier du stator (lit).

L'Internet des objets est en train de passer du stade de concept à celui de monstre numérique, probablement en bon sens ce mot.

Quelles technologies numériques sont à la mode aujourd’hui ? Et pourquoi le succès des entreprises à l’avenir dépendra-t-il en grande partie de leur capacité à s’intégrer à l’Internet des objets (IoT) ?

IoT, Analytics, Edge, 5G dans le top quatre

À l’approche de la fin de l’année 2018, les analystes de l’espace numérique constatent que l’humanité s’intègre de plus en plus profondément dans l’espace numérique. Et bien que pour beaucoup de gens, de nombreuses technologies Internet semblent encore être une sorte de fantasme, le temps n'est pas loin où les maisons, les voitures, les machines-outils, appareils électroménagers ils pourront communiquer sur Internet via leurs agents Internet, en prenant soin de notre bénéfice - fournir du chauffage, de l'eau, du gaz à la maison à temps, remplir la voiture à temps et l'envoyer au contrôle technique, apporter de la lessive à temps, etc.

Les machines-outils trouveront elles-mêmes les commandes et les matériaux nécessaires à l'exécution de ces commandes, les installations de convoyage et les ateliers rechercheront eux-mêmes des fournisseurs puis assembleront des machines, des équipements et toutes sortes de choses à partir des composants fournis. L'Internet des objets, qui n'était qu'un concept il y a quelques années, est aujourd'hui envahi par la chair sous la forme de l'émergence de maisons intelligentes, de voitures intelligentes, d'appareils intelligents, etc.

Quelles technologies numériques revendiquent aujourd’hui le leadership ?

L’Internet des objets (IoT) omniprésent

L’Internet des objets IoT, que nous avons déjà évoqué, a à juste titre trouvé sa place au sommet. Gartner estime que plus de 8,4 milliards de « choses » étaient en ligne en 2017, soit une hausse de 30 % par rapport à l'année dernière. Cette tendance se poursuit en 2018. Pourtant, l’IoT n’est qu’un début. Il s'agit de pas tant sur les choses, mais sur ce que nous faisons avec ces choses lorsqu'elles sont connectées et nous fournissent des données.

Trois des principales tendances observées par les experts – la révolution de l’analyse, l’informatique de pointe et le traitement des cellules 5G – sont toutes motivées par l’IoT. En fait, IDC prédit que jusqu’à 40 % de l’informatique totale sera réalisée au cours des deux prochaines années. C'est pourquoi les tendances 1 à 4 concernent toutes l'IoT. Si tu parles très langage clair, les choses doivent d'abord être numérisées pour pouvoir entrer dans le système IoT. Mais vous comprenez probablement qu’Internet est essentiellement un système de chiffres.

Analyses de l'IoT

Si vous pensez que la fonction principale de l’IoT est de servir ses hôtes, ce n’est pas tout à fait vrai. En interagissant les uns avec les autres, ils créent une base qui est ensuite analysée.

La quantité massive d’informations générées par l’IoT a le potentiel de révolutionner tout, depuis l’industrie manufacturière et les soins de santé jusqu’au fonctionnement de villes entières, leur permettant de fonctionner plus efficacement et de manière plus rentable que jamais. Une entreprise, par exemple, a constaté qu'elle était en mesure de réduire le coût d'exploitation de sa flotte de 180 000 camions de 15 cents le mile à 3 cents. La même efficacité peut être obtenue dans presque tous les secteurs, du commerce de détail à l’urbanisme.

Les géants de la technologie tels que Microsoft, IBM, SAS et SAP investissent tous massivement dans Google Analytics, en particulier IoT Analytics, car ils voient la puissance de cette combinaison pour générer de nouvelles idées commerciales dans un large éventail de secteurs et d'applications.

En troisième position se trouve Edge Computing

Si vous pensez avoir atteint la limite en matière d’usage numérique, c’est que vous n’avez encore rien vu. C'est simplement qu'à mesure que de nombreuses entreprises commencent enfin à s'orienter vers le cloud computing, l'informatique de pointe, motivée par le volume et la vitesse des informations créées par l'IoT, passe au premier plan de la scène commerciale. L'Edge Computing domine la tendance numérique en 2018

Les leaders de l'industrie tels que Cisco et HPE ont fait d'énormes paris sur le matériel, les logiciels et les services pour ce mouvement, qui doit être considéré comme un test solide de cette tendance. Alors que les drones intelligents, les véhicules autonomes et autres appareils intelligents basés sur l’IA s’efforcent d’obtenir une connectivité et une transmission instantanées via l’IoT, la question de l’envoi « entièrement » des données vers le cloud deviendra très peu pratique. Beaucoup de ces appareils nécessiteront une réponse et un traitement en temps réel, faisant de l’informatique de pointe la seule option viable.

Pour ceux d’entre vous qui viennent de passer à la génération cloud : ne vous inquiétez pas. Même si la périphérie reste adaptée au traitement des données en temps réel, il est probable que les données les plus importantes et les plus pertinentes auront toujours une région cloud. Autrement dit, l’informatique de pointe est nécessaire pour les applications Internet qui nécessitent une prise de décision instantanée.

L'une des technologies proposées pour le calcul instantané des transactions sans recourir au stockage cloud est la Blockchain (à ce sujet un peu plus loin) - une chaîne de blocs qui vous permet de calculer toutes les transactions en temps réel. Une transaction est la plus petite opération significative.

La 5G ferme le top quatre

Tout comme la quantité croissante de données générées par l’IoT obligera à utiliser l’informatique de pointe, elle obligera également les fournisseurs de services mobiles à évoluer plus rapidement que jamais vers la 5G. Le niveau d’hyper-connectivité attendu par les utilisateurs aujourd’hui laisse peu de place pour ne pas avancer sur la voie de la 5G, mais ne vous emballez pas trop. La transition vers la 5G ne se fera pas du jour au lendemain. Au mieux, cela prendra 2 ans. On dit que c'est grâce à lui que l'Internet des objets, les véhicules sans pilote et la réalité virtuelle passeront des pages des médias technologiques à notre vie quotidienne.

La blockchain trouve le chemin de la gloire

Alors que son cousin plus populaire Bitcoin continue d’épater les analystes boursiers, la Blockchain peut enfin se targuer d’avoir trouvé sa place en 2018. Gartner montre qu'en février de cette année, blockchain était le deuxième meilleur terme de recherche sur son site Web, avec une croissance de 400 % en seulement 12 mois.

Si le secteur financier sera le premier à utiliser cet outil étonnant, de nombreux autres secteurs – des soins de santé au divertissement en passant par l'hôtellerie – ne seront pas loin derrière. Bien entendu, la transition vers la blockchain ne se fera pas non plus du jour au lendemain : seuls 20 % du financement du commerce mondial l’utilisera d’ici 2020. Mais une fois qu’il aura retrouvé le pied marin – probablement cette année – il ne pourra plus revenir en arrière.

L'intelligence artificielle est toujours dans le top dix

L'IA (intelligence artificielle, IA), injustement contournée par une grande renommée, continue néanmoins de se développer activement et compte de nombreux admirateurs. Il y a autant de potentiel du côté commercial de l’IA que dans tout, du service client à la robotique en passant par l’analyse et le marketing. Les entreprises continueront à utiliser l’IA pour surprendre, se connecter et se connecter avec leurs clients d’une manière qu’ils n’apprécieront peut-être même pas ou ne comprendront pas.

Cela inclut une automatisation plus rapide, moins coûteuse et plus intelligente de tout, depuis E-mail et de la création de contenu à la production industrielle. Certains analystes sont convaincus que l’IA ne s’est pas encore manifestée.

Nous avons vu des sociétés comme IBM Watson, SAP Leonardo, Salesforce Einstein et d'autres grands éditeurs de logiciels lancer l'IA intégrée directement dans leurs plates-formes. C’est le signe que toutes les choses les plus importantes dans le développement de l’intelligence artificielle doivent encore se réaliser.

Référence:

L'Internet des objets (en anglais Internet of Things, IoT) est le concept d'un réseau informatique d'objets physiques (« objets ») équipés de technologies embarquées pour interagir entre eux ou avec l'environnement extérieur, considérant l'organisation de tels réseaux comme un phénomène qui peut reconstruire les processus économiques et sociaux, en excluant le besoin de participation humaine de certaines actions et opérations.

Le concept a été formulé en 1999. réseaux.

En 2017, le terme « Internet des objets » s’étend non seulement aux systèmes cyber-physiques à usage « domestique », mais aussi aux installations industrielles. Le développement du concept de « Bâtiments intelligents » a été appelé « Building Internet of Things » (BIoT, « Internet of Things in a Building »), le développement d'une infrastructure de réseau distribuée dans les systèmes de contrôle industriels a conduit à l'émergence de « l'Internet industriel des objets » (IIoT, « Internet industriel (industriel) des objets »)

Envoyer votre bon travail dans la base de connaissances est simple. Utilisez le formulaire ci-dessous

Bon travail vers le site">

Les étudiants, étudiants diplômés, jeunes scientifiques qui utilisent la base de connaissances dans leurs études et leur travail vous seront très reconnaissants.

Tendances modernes dans le développement des équipements de transmission radio

Les dispositifs de transmission radio (RPDU) sont utilisés dans les domaines des télécommunications, de la radiodiffusion télévisuelle et radiophonique, du radar et de la radionavigation. Le développement rapide de la microélectronique, des microcircuits analogiques et numériques, des microprocesseurs et de la technologie informatique a un impact significatif sur le développement de la technologie de transmission radio, à la fois en termes d'une forte augmentation de la fonctionnalité et en termes d'amélioration de ses performances. Ceci est réalisé grâce à l'utilisation de nouveaux principes pour construire des schémas structurels d'émetteurs et de mise en œuvre de circuits de leurs nœuds individuels qui mettent en œuvre des méthodes numériques pour générer, traiter et convertir des oscillations et des signaux ayant différentes fréquences et niveaux de puissance.

Les émetteurs radio qui utilisent des méthodes numériques pour générer, traiter et convertir des oscillations et des signaux seront appelés dispositifs de transmission radio numérique (TsRPdU).

Considérons les exigences modernes du RPDU, qui posent des problèmes qui ne peuvent en principe pas être résolus par des méthodes de circuits analogiques, ce qui nécessite l'utilisation de technologies numériques dans le RPDU.

Dans le domaine des télécommunications et de la radiodiffusion, on peut distinguer les principales exigences suivantes, en constante augmentation, pour les systèmes de transmission d'informations, dont les éléments sont des RPdS :

Assurer l'immunité au bruit dans un air radio surchargé ;

Augmenter le débit des canaux ;

Rentabilité de l'utilisation de la ressource fréquence dans la communication multicanal ;

Qualité du signal améliorée et compatibilité électromagnétique.

La volonté de répondre à ces exigences conduit à l’émergence de nouveaux standards de communication et de diffusion. Parmi les GSM déjà connus, DECT, SmarTrunk II, TETRA, DRM, etc.

La principale direction du développement systèmes de communication est de fournir un accès multiple, dans lequel la ressource fréquentielle est partagée et utilisée simultanément par plusieurs abonnés. Les technologies d'accès multiples comprennent TDMA, FDMA, CDMA et des combinaisons de celles-ci. Dans le même temps, les exigences en matière de qualité de communication sont également accrues, c'est-à-dire l'immunité au bruit, la quantité d'informations transmises, la sécurité des informations et l'identification de l'utilisateur, etc. Cela conduit à la nécessité d'utiliser des types complexes de modulation, de codage des informations, de réglage continu et rapide de la fréquence de fonctionnement, de synchronisation des cycles de fonctionnement du émetteur, récepteur et station de base, tout en garantissant une stabilité à haute fréquence et une grande précision de la modulation d'amplitude et de phase aux fréquences de fonctionnement mesurées en gigahertz. Concernant systèmes de diffusion, ici la principale exigence est d'améliorer la qualité du signal du côté de l'abonné, ce qui entraîne là encore une augmentation de la quantité d'informations transmises en raison du passage aux normes de diffusion numérique. La stabilité temporelle des paramètres de ces émetteurs radio - fréquence, modulation - est également extrêmement importante. Il est évident que les circuits analogiques ne sont pas capables de faire face à de telles tâches, et génération de signaux les émetteurs doivent être effectués par des méthodes numériques.

La technologie moderne de transmission radio ne peut être imaginée sans outils logiciels intégrés. contrôle des modes fonctionnement des cascades, autodiagnostic, auto-calibrage, autorégulation et protection contre les situations d'urgence, y compris la redondance automatique. Ces fonctions dans les émetteurs sont assurées par des microcontrôleurs spécialisés, combinant parfois les fonctions de formation numérique des signaux transmis. Contrôle à distance des modes de fonctionnement souvent utilisé à l'aide d'un ordinateur distant via une interface numérique spéciale. Tout émetteur ou émetteur-récepteur moderne fournit un certain niveau service Pour utilisateur, qui comprend le contrôle numérique de l'émetteur (par exemple, à partir du clavier) et l'indication des modes de fonctionnement sous forme graphique et textuelle sur l'écran d'affichage. Il est évident que l'on ne peut pas se passer de systèmes de contrôle à microprocesseur pour l'émetteur, qui déterminent ses paramètres les plus importants.

La production d’émetteurs d’un tel niveau de complexité ne serait pas rentable du point de vue économique dans le cas de leur conception analogique. Ce sont les moyens des microcircuits numériques, qui permettent de remplacer des blocs entiers d'émetteurs classiques, qui permettent de réduire considérablement améliorer les dimensions globalesémetteurs (pensez aux téléphones portables), pour obtenir une répétabilité des paramètres, une haute fabricabilité et simplicité dans leur fabrication et leur réglage.

Il est évident que l'émergence et le développement des dispositifs de transmission radio numériques ont constitué une étape inévitable et nécessaire dans l'histoire de l'ingénierie radio et des télécommunications, permettant de résoudre de nombreux problèmes urgents inaccessibles aux circuits analogiques.

À titre d'exemple, considérons un émetteur radio numérique de diffusion HARRISPLATINEZ(Fig. 1.1), qui présente les principales caractéristiques suivantes (informations sur www.pirs.ru) :

A) Excitateur FM HARRIS DIGITTM entièrement numérique avec oscillateur stéréo DSP intégré. En tant que premier excitateur FM entièrement numérique au monde, HARRIS DIGITTM accepte numériquement les fréquences audio AES/EBU et génère la fréquence porteuse RF la plus entièrement modulée numériquement, ce qui entraîne moins de bruit et de distorsion que tout autre émetteur FM (qualité AF numérique 16 bits).

B) Le système de démarrage rapide garantit que la pleine puissance est atteinte à tous égards dans les 5 secondes après la mise sous tension.

C) Le contrôleur sur microprocesseurs permet un contrôle, un diagnostic et un affichage complets. Comprend une logique et des commandes intégrées pour la commutation entre les excitateurs HARRIS DIGITTM principaux/supplémentaires et le préamplificateur de puissance (PPA).

D) Le schéma haut débit permet de refuser le réglage dans la plage de 87 à 108 MHz (avec l'option N+1). Les changements de fréquence peuvent être effectués manuellement avec des commutateurs en moins de 5 minutes et en moins de 0,5 seconde avec un contrôleur externe en option.

Figure 1.1

Un autre exemple d'émetteur radio numérique est un dispositif de transmission de données sans fil. BLUETOOTH(informations www.webmarket.ru), qui sera discuté plus en détail au paragraphe 3.1 (Fig. 1.2 et tableau 1.1).

Figure 1.2.

Tableau 1.1. Brèves spécifications Bluetooth

Soulignons donc les principaux domaines d'application des technologies numériques pour générer et traiter des signaux dans les appareils de transmission radio.

1. Formation et conversion de signaux basse fréquence d'informations analogiques et numériques, incl. appairage d'un ordinateur avec un émetteur radio (signaux de groupe, encodage, conversion de signaux analogiques en numériques ou vice versa).

2. Méthodes numériques de modulation des signaux RF.

3. Synthèse de fréquence et contrôle de fréquence.

4. Transfert numérique du spectre du signal.

5. Méthodes numériques pour amplifier la puissance des signaux RF.

6. Systèmes numériques pour la régulation et le contrôle automatiques des émetteurs, de l'indication et du contrôle.

Les sections suivantes fournissent des informations plus détaillées sur chacune de ces applications numériques dans les émetteurs radio.

Bibliographie

1. Systèmes de réception radio numérique / Éd. MI. Jodzishski. Moscou : Radio et communication, 1990. 208 p.

2. Améliorer l'efficacité des puissants dispositifs de transmission radio / Ed. A.D. Artyma. Moscou : Radio et communication, 1987. 175 p.

3. Goldenberg L.M., Matyushkin B.D., Polyak M.N. Traitement du signal numérique : Proc. allocation pour les universités. M. : Radio et communication, 1990. 256 p.

4. Semenov B.Yu. Accordeur moderne de vos propres mains. M. : SOLON_R. 2001. 352 p.

Documents similaires

    L'histoire du développement et de la formation des appareils de transmission radio, les principaux problèmes de leur travail. Schéma fonctionnel généralisé d'un émetteur radio moderne. Classification des émetteurs radio selon divers critères, plage de fréquences comme l'une des caractéristiques des appareils.

    résumé, ajouté le 29/04/2011

    informations généralesà propos du Bluetooth, qu'est-ce que c'est. Types de connexion, transfert de données, structure des paquets. Caractéristiques du fonctionnement Bluetooth, description de ses protocoles, niveau de sécurité. Configuration du profil, description des principaux concurrents. Spécifications Bluetooth.

    travail de contrôle, ajouté le 12/01/2010

    Caractéristiques des appareils de transmission radio, leurs principales fonctions : génération d'oscillations électromagnétiques et leur modulation en fonction du message transmis. Concevoir un schéma fonctionnel d'un émetteur radio et déterminer certains de ses paramètres.

    résumé, ajouté le 26/04/2012

    Qu'est-ce qu'un TSR ? Le principe de la construction de réseaux à ressources partagées. Services de réseau de suivi. Technologie Bluetooth - comme méthode de transmission sans fil d'informations. Certains aspects application pratique Technologie Bluetooth. Analyse des technologies sans fil.

    dissertation, ajouté le 24/12/2006

    Tâches d'utilisation de convertisseurs analogique-numérique dans les émetteurs radio. Caractéristiques des convertisseurs numérique-analogique (DAC) pour un fonctionnement dans les chemins basse fréquence, les systèmes de contrôle et les DAC spécialisés à grande vitesse et haute résolution.

    dissertation, ajouté le 15/01/2011

    Les principales caractéristiques de la vidéo. Normes vidéo. Formats d'enregistrement. Méthodes de compression. Formats vidéo mobiles modernes. Programmes requis pour lire la vidéo. Caméras vidéo modernes. Médias vidéo numériques. Télévision par satellite.

    résumé, ajouté le 25/01/2007

    Qu’est-ce que le Bluetooth ? Méthodes existantes pour résoudre des problèmes individuels. "Conflit de fréquence". Concurrents. Exemple pratique solutions. Bluetooth pour la communication mobile. Appareils Bluetooth. Boom de décembre. Qui fabrique les puces Bluetooth ? Harold Dent Bleue.

    résumé, ajouté le 28/11/2005

    Calcul de l'émetteur et du circuit d'adaptation. Calcul du schéma fonctionnel et de la cascade de l'émetteur radio, des valeurs des éléments et des indicateurs énergétiques de l'auto-oscillateur à quartz. Instabilité d'un auto-oscillateur à quartz et conception de dispositifs de transmission radio.

    dissertation, ajouté le 03/12/2010

    Vues modernes télécommunications. Description des systèmes de transmission de messages continus, de diffusion sonore, de communication télégraphique. Caractéristiques de l'utilisation de paires torsadées, de lignes de câbles, de fibre optique. Le but de la technologie Bluetooth et du trunking.

    résumé, ajouté le 23/10/2014

    Les principales tendances du développement du marché des données de télédétection terrestre en la dernière décennie. Télédétection spatiale moderne haute résolution. Satellites à ultra haute résolution. Complexes cartographiques en perspective Cartosat-1 et Cartosat-2.