Menu English Ukrainian Russo Início

Biblioteca técnica gratuita para amadores e profissionais Biblioteca técnica gratuita


Ciência da Computação. Fundamentos teóricos gerais da ciência da computação (notas de aula)

Notas de aula, folhas de dicas

Diretório / Notas de aula, folhas de dicas

Comentários do artigo Comentários do artigo

Índice (expandir)

Tópico 1. Fundamentos teóricos gerais da ciência da computação

1.1. O conceito de informatica

A informática (da informação francesa - informação + automatique - automação) tem uma ampla gama de aplicações. As principais direções desta disciplina científica são:

▪ desenvolvimento de sistemas e software informáticos;

▪ teoria da informação, que estuda processos baseados na transmissão, recepção, transformação e armazenamento de informação;

▪ métodos que permitem criar programas para resolver problemas que exigem certos esforços intelectuais quando utilizados por uma pessoa (inferência lógica, compreensão da fala, percepção visual, etc.);

▪ análise do sistema, que consiste em estudar a finalidade do sistema projetado e determinar os requisitos que ele deve atender;

▪ métodos de animação, computação gráfica, multimídia;

▪ telecomunicações (redes globais de computadores);

▪ diversas aplicações que são utilizadas na indústria, ciência, educação, medicina, comércio, agricultura, etc.

Na maioria das vezes, considera-se que a informática consiste em dois tipos de meios:

1) técnico - equipamentos de informática;

2) software - toda a variedade de programas de computador existentes.

Às vezes, há outro ramo principal - ferramentas algorítmicas.

No mundo moderno, o papel da informática é enorme. Abrange não apenas a esfera da produção material, mas também os aspectos intelectuais e espirituais da vida. O aumento da produção de equipamentos de informática, o desenvolvimento de redes de informação, o surgimento de novas tecnologias da informação afetam significativamente todas as esferas da sociedade: produção, ciência, educação, medicina, cultura, etc.

1.2. O conceito de informao

A palavra "informação" em latim significa informação, esclarecimento, apresentação.

Informação é informação sobre objetos e fenômenos do mundo circundante, suas propriedades, características e estado, percebidos pelos sistemas de informação. A informação não é uma característica da mensagem, mas da relação entre a mensagem e seu analisador. Se não há consumidor, pelo menos potencial, não faz sentido falar em informação.

Na informática, a informação é entendida como uma certa sequência de designações simbólicas (letras, números, imagens e sons, etc.), que carregam uma carga semântica e são apresentadas de forma compreensível para um computador. Esse novo caractere em tal sequência de caracteres aumenta o conteúdo de informação da mensagem.

1.3. Sistema de codificação de informações

A codificação da informação é utilizada para unificar a forma de apresentação dos dados pertencentes a diferentes tipos, a fim de automatizar o trabalho com a informação.

Codificação é a expressão de dados de um tipo por meio de dados de outro tipo. Por exemplo, as linguagens humanas naturais podem ser consideradas como sistemas de codificação de conceitos para expressar pensamentos por meio da fala, e os alfabetos também são sistemas de codificação de componentes de linguagem usando símbolos gráficos.

Na tecnologia de computadores, a codificação binária é usada. A base desse sistema de codificação é a representação dos dados através de uma sequência de dois caracteres: 0 e 1. Esses caracteres são chamados de dígitos binários (dígito binário), ou bit abreviado (bit). Um bit pode codificar dois conceitos: 0 ou 1 (sim ou não, verdadeiro ou falso, etc.). Com dois bits é possível expressar quatro conceitos diferentes, e com três bits é possível codificar oito valores diferentes.

A menor unidade de codificação de informação em tecnologia de computador depois de um bit é um byte. Sua relação com um bit reflete a seguinte relação: 1 byte = 8 bits = 1 caractere.

Normalmente, um byte codifica um caractere de informação textual. Com base nisso, para documentos de texto, o tamanho em bytes corresponde ao tamanho léxico em caracteres.

Uma unidade maior de informação de codificação é um kilobyte, relacionado a um byte pela seguinte proporção: 1 Kb = 1024 bytes.

Outras unidades de codificação de informação maiores são símbolos obtidos pela adição dos prefixos mega (Mb), giga (GB), tera (Tb):

1 MB = 1 bytes;

1 GB = 10 bytes;

1 TB = 1024 GB.

Para codificar um inteiro em binário, pegue o inteiro e divida-o pela metade até que o quociente seja igual a um. O conjunto de restos de cada divisão, que é escrito da direita para a esquerda junto com o último quociente, será o análogo binário de um número decimal.

No processo de codificação de inteiros de 0 a 255, basta utilizar 8 bits de código binário (8 bits). Usar 16 bits permite codificar números inteiros de 0 a 65 e usar 535 bits - mais de 24 milhões de valores diferentes.

Para codificar números reais, a codificação de 80 bits é usada. Nesse caso, o número é primeiro convertido em uma forma normalizada, por exemplo:

2,1427926 = 0,21427926? 101;

500 = 000? 0,5.

A primeira parte do número codificado é chamada de mantissa e a segunda parte são as características. A parte principal de 80 bits é reservada para armazenar a mantissa, e alguns números fixos de bits são reservados para armazenar a característica.

1.4. Codificação de informações de texto

A informação textual é codificada em código binário através da designação de cada caractere do alfabeto por um determinado número inteiro. Usando oito dígitos binários, é possível codificar 256 caracteres diferentes. Este número de caracteres é suficiente para expressar todos os caracteres dos alfabetos inglês e russo.

Nos primeiros anos do desenvolvimento da tecnologia computacional, as dificuldades de codificação de informações textuais foram causadas pela falta dos padrões de codificação necessários. Atualmente, pelo contrário, as dificuldades existentes estão associadas a uma multiplicidade de normas que operam simultaneamente e muitas vezes conflitantes.

Para o inglês, que é um meio de comunicação internacional não oficial, essas dificuldades foram resolvidas. O US Standards Institute desenvolveu e introduziu o sistema de codificação ASCII (American Standard Code for Information Interchange).

Para codificar o alfabeto russo, várias opções de codificação foram desenvolvidas:

1) Windows-1251 - introduzido pela Microsoft; dado o uso generalizado de sistemas operacionais (SO) e outros produtos de software desta empresa na Federação Russa, tornou-se generalizado;

2) KOI-8 (Código de Troca de Informações, oito dígitos) - outra codificação popular do alfabeto russo, comum em redes de computadores no território da Federação Russa e no setor russo da Internet;

3) ISO (International Standard Organization - International Institute for Standardization) - um padrão internacional para codificação de caracteres no idioma russo. Na prática, essa codificação raramente é usada.

Um conjunto limitado de códigos (256) cria dificuldades para os desenvolvedores de um sistema unificado de codificação de informações textuais. Como resultado, foi proposto codificar caracteres não com números binários de 8 bits, mas com números com um bit grande, o que causou uma expansão da faixa de valores de código possíveis. O sistema de codificação de caracteres de 16 bits é chamado universal - UNICODE. Dezesseis bits permitem códigos únicos para 65 caracteres, o que é suficiente para caber a maioria dos idiomas em uma tabela de caracteres.

Apesar da simplicidade da abordagem proposta, a transição prática para este sistema de codificação não pôde ser implementada por muito tempo devido à falta de recursos computacionais, uma vez que no sistema de codificação UNICODE todos os documentos de texto tornam-se automaticamente duas vezes maiores. No final dos anos 1990 os meios técnicos atingiram o nível necessário, iniciou-se uma transferência gradual de documentos e software para o sistema de codificação UNICODE.

1.5. Codificação de informações gráficas

Existem várias maneiras de codificar informações gráficas.

Ao visualizar uma imagem gráfica em preto e branco com uma lupa, percebe-se que ela inclui vários pontos minúsculos que formam um padrão característico (ou raster). Coordenadas lineares e propriedades individuais de cada um dos pontos da imagem podem ser expressas usando números inteiros, então o método de codificação raster é baseado no uso de um código binário para representar dados gráficos. O padrão bem conhecido é a redução de ilustrações em preto e branco na forma de uma combinação de pontos com 256 tons de cinza, ou seja, são necessários números binários de 8 bits para codificar o brilho de qualquer ponto.

A codificação de imagens gráficas coloridas é baseada no princípio de decompor uma cor arbitrária em componentes básicos, que são usados ​​como três cores primárias: vermelho (vermelho), verde (verde) e azul (azul). Na prática, aceita-se que qualquer cor que o olho humano perceba pode ser obtida usando uma combinação mecânica dessas três cores. Este sistema de codificação é chamado RGB (pelas primeiras letras das cores primárias). Quando 24 bits são usados ​​para codificar gráficos coloridos, esse modo é chamado True Color.

Cada uma das cores primárias é mapeada para uma cor que complementa a cor primária para o branco. Para qualquer uma das cores primárias, a cor complementar será aquela formada pela soma de um par de outras cores primárias. Assim, entre as cores adicionais, pode-se distinguir ciano (ciano), magenta (magenta) e amarelo (amarelo). O princípio de decomposição de uma cor arbitrária em seus componentes constituintes é usado não apenas para cores primárias, mas também para cores adicionais, ou seja, qualquer cor pode ser representada como a soma dos componentes ciano, magenta e amarelo. Esse método de codificação de cores é usado na impressão, mas também usa a quarta tinta - preto (preto), portanto, esse sistema de codificação é indicado por quatro letras - CMYK. Para representar gráficos coloridos neste sistema, são usados ​​32 bits. Este modo também é chamado de cor total.

Ao reduzir o número de bits usados ​​para codificar a cor de cada ponto, a quantidade de dados é reduzida, mas o intervalo de cores codificadas é visivelmente reduzido. A codificação de gráficos coloridos com números binários de 16 bits é chamada de modo High Color. Ao codificar informações de cores gráficas usando 8 bits de dados, apenas 256 tons podem ser transmitidos. Este método de codificação de cores é chamado de índice.

1.6. Codificação de áudio

Atualmente, não existe um sistema único padrão para codificação de informações sonoras, uma vez que as técnicas e métodos para trabalhar com informações sonoras começaram a se desenvolver em comparação com os métodos mais recentes para trabalhar com outros tipos de informações. Portanto, muitas empresas diferentes que trabalham na área de codificação de informações criaram seus próprios padrões corporativos para informações de áudio. Mas entre esses padrões corporativos, duas áreas principais se destacam.

O método FM (Frequency Modulation) baseia-se na afirmação de que teoricamente qualquer som complexo pode ser representado como uma decomposição em uma sequência de sinais harmônicos simples de diferentes frequências. Cada um desses sinais harmônicos é uma senóide regular e, portanto, pode ser descrito numericamente ou codificado. Os sinais sonoros formam um espectro contínuo, ou seja, são analógicos, portanto, sua decomposição em séries harmônicas e apresentação na forma de sinais digitais discretos é realizada usando dispositivos especiais - conversores analógico-digitais (ADC). A conversão reversa, necessária para reproduzir o som codificado com um código numérico, é realizada usando conversores digital-analógico (DACs). Devido a essas transformações dos sinais de áudio, há uma perda de informação associada ao método de codificação, de modo que a qualidade da gravação do som pelo método FM geralmente não é satisfatória o suficiente e corresponde à qualidade do som dos instrumentos musicais elétricos mais simples com uma cor característica da música eletrônica. Ao mesmo tempo, este método fornece um código completamente compacto, por isso foi amplamente utilizado naqueles anos em que os recursos da tecnologia da computação eram claramente insuficientes.

A ideia principal do método de síntese wave-table (Wave-Table) é que em mesas pré-preparadas existem amostras de som para diversos instrumentos musicais. Essas amostras de som são chamadas de amostras. Os códigos numéricos que estão embutidos na amostra expressam características como o tipo de instrumento, seu número de modelo, altura, duração e intensidade do som, a dinâmica de sua mudança, alguns componentes do ambiente em que o som é observado e outros parâmetros que caracterizam as características do som. Como são usados ​​sons reais para as amostras, a qualidade das informações sonoras codificadas é muito alta e se aproxima do som de instrumentos musicais reais, o que está mais de acordo com o nível atual de desenvolvimento da tecnologia computacional moderna.

1.7. Modos e métodos de transferência de informações

Para uma correta troca de dados entre os nós de uma rede local, são usados ​​certos modos de transferência de informações:

1) transmissão simplex (unidirecional);

2) transmissão half-duplex, em que a recepção e transmissão de informações pela fonte e pelo receptor são realizadas alternadamente;

3) transmissão duplex, na qual é realizada a transmissão simultânea paralela, ou seja, cada estação transmite e recebe dados simultaneamente.

Em sistemas de informação, a transmissão de dados duplex ou serial é muito usada. Aloque métodos síncronos e assíncronos de transmissão serial de dados.

O método síncrono difere porque os dados são transferidos em blocos. Para sincronizar a operação do receptor e do transmissor, bits de sincronização são enviados no início do bloco. Depois disso, são transmitidos os dados, o código de detecção de erros e o símbolo que indica o fim da transferência. Esta sequência forma o esquema padrão de transmissão de dados para o método síncrono. No caso da transmissão síncrona, os dados são transmitidos tanto como símbolos quanto como fluxo de bits. O código de detecção de erro é mais frequentemente um código de detecção de erro redundante cíclico (CRC), que é determinado pelo conteúdo do campo de dados. Com sua ajuda, você pode determinar inequivocamente a confiabilidade das informações recebidas.

As vantagens do método de transferência de dados síncrona incluem:

▪ alta eficiência;

▪ mecanismo de detecção de erros integrado e confiável;

▪ alta velocidade de transferência de dados.

A principal desvantagem deste método é o hardware de interface caro.

O método assíncrono difere porque cada caractere é transmitido em um pacote separado. Os bits de início alertam o receptor para o início da transmissão, após o qual o próprio caractere é transmitido. O bit de paridade é usado para determinar a validade da transmissão. O bit de paridade é um quando o número de uns em um caractere é ímpar e zero quando há uns pares. O último bit, chamado de "stop bit", sinaliza o fim da transmissão. Essa sequência forma o esquema de transferência de dados padrão para um método assíncrono.

As vantagens do método de transferência assíncrona são:

▪ equipamento de interface barato (em comparação com o síncrono);

▪ sistema de transmissão simples e comprovado.

As desvantagens deste método incluem:

▪ perda de um terço da largura de banda para transmissão de bits de serviço;

▪ baixa velocidade de transmissão comparada ao método síncrono;

▪ incapacidade de determinar a confiabilidade da informação recebida usando o bit de paridade em caso de erros múltiplos.

O método de transferência assíncrona é usado em sistemas nos quais a troca de dados ocorre de tempos em tempos e uma alta taxa de transferência de dados não é necessária.

1.8. Tecnologia da Informação

A informação é um dos recursos mais valiosos da sociedade, por isso o processo de seu processamento, assim como os recursos materiais (por exemplo, petróleo, gás, minerais, etc.), podem ser percebidos como um tipo de tecnologia. Neste caso, as seguintes definições serão válidas.

Os recursos de informação são um conjunto de dados que são valiosos para uma empresa (organização) e atuam como recursos materiais. Estes incluem textos, conhecimento, arquivos de dados, etc.

A tecnologia da informação é um conjunto de métodos, processos de produção e ferramentas de software e hardware que são combinados em uma cadeia tecnológica. Esta cadeia assegura a recolha, armazenamento, processamento, saída e disseminação da informação de forma a reduzir a complexidade de utilização dos recursos de informação, bem como aumentar a sua fiabilidade e eficiência.

De acordo com a definição adotada pela UNESCO, a tecnologia da informação é um conjunto de disciplinas científicas, tecnológicas e de engenharia inter-relacionadas que estudam os métodos de organização eficaz do trabalho das pessoas envolvidas no processamento e armazenamento de informações, bem como a tecnologia da computação e métodos de organização e interação com pessoas e equipamentos de produção.

O sistema de métodos e processos de produção define as técnicas, princípios e atividades que regulam o projeto e uso de software e hardware para processamento de dados. Dependendo das tarefas específicas da aplicação que precisam ser resolvidas, vários métodos de processamento de dados e meios técnicos são usados. Existem três classes de tecnologias da informação que permitem trabalhar com vários tipos de áreas temáticas:

1) global, incluindo modelos, métodos e ferramentas que formalizem e permitam o uso dos recursos de informação da sociedade como um todo;

2) básico, projetado para uma área específica de aplicação;

3) específico, realizando o processamento de determinados dados ao resolver as tarefas funcionais do usuário (em particular, as tarefas de planejamento, contabilidade, análise, etc.).

O principal objetivo da tecnologia da informação é a produção e processamento de informações para sua análise e a adoção de uma decisão adequada em sua base, que prevê a implementação de qualquer ação.

1.9. Etapas do desenvolvimento da tecnologia da informação

Existem vários pontos de vista sobre o desenvolvimento da tecnologia da informação com o uso de computadores. A encenação é realizada com base nos seguintes sinais de divisão.

Alocação de etapas sobre os problemas do processo de informatização da sociedade:

1) até o final da década de 1960. - o problema de processar grandes quantidades de informações em condições de recursos de hardware limitados;

2) até o final da década de 1970. - backlog de software desde o nível de desenvolvimento de hardware;

3) desde o início da década de 1980. - problemas de satisfação máxima das necessidades do usuário e a criação de uma interface adequada para trabalhar em ambiente computacional;

4) desde o início da década de 1990. - desenvolvimento de um acordo e estabelecimento de padrões, protocolos para comunicações informáticas, organização do acesso a informações estratégicas, etc.

Alocação de etapas de acordo com a vantagem trazida pela informática:

1) desde o início da década de 1960. - processamento eficiente de informações na execução de trabalhos rotineiros com foco no uso coletivo centralizado dos recursos do centro de informática;

2) desde meados da década de 1970. - o surgimento de computadores pessoais (PCs). Ao mesmo tempo, a abordagem para a criação de sistemas de informação mudou - a orientação está mudando para o usuário individual para apoiar suas decisões. O processamento de dados centralizado e descentralizado é usado;

3) desde o início dos anos 1990. - desenvolvimento de tecnologia de telecomunicações para processamento distribuído de informação. Os sistemas de informação são usados ​​para ajudar uma organização a combater os concorrentes.

Alocação de estágios por tipos de ferramentas tecnológicas:

1) até a segunda metade do século XIX. - tecnologia da informação "manual", em que as ferramentas eram caneta, tinta, papel;

2) do final do século XIX. - tecnologia "mecânica", cujas ferramentas eram máquina de escrever, telefone, gravador de voz, correio;

3) 1940-1960 século XNUMX - tecnologia "elétrica", cujas ferramentas eram grandes computadores eletrônicos (computadores) e software relacionado, máquinas de escrever elétricas, fotocopiadoras, gravadores de voz portáteis;

4) desde o início da década de 1970. - tecnologia "eletrônica", as principais ferramentas são grandes computadores e sistemas de controle automatizado (ACS) e sistemas de recuperação de informação (IPS) criados com base neles, que são equipados com uma ampla gama de sistemas de software;

5) desde meados da década de 1980. - tecnologia de "computador", o principal kit de ferramentas é um PC com uma ampla gama de produtos de software padrão para diversos fins.

1.10. O advento dos computadores e da tecnologia da computação

Por muitos séculos, as pessoas tentaram criar vários dispositivos para facilitar os cálculos. Na história do desenvolvimento de computadores e tecnologias computacionais, existem vários eventos importantes que se tornaram decisivos na evolução futura.

Nos anos 40. século XNUMX B. Pascal inventou um dispositivo mecânico que poderia ser usado para somar números.

No final do século XVIII. G. Leibniz criou um dispositivo mecânico para somar e multiplicar números.

Em 1946, os primeiros computadores mainframe foram inventados. Os cientistas americanos J. von Neumann, G. Goldstein e A. Berne publicaram um trabalho no qual apresentavam os princípios básicos da criação de um computador universal. Desde o final da década de 1940. os primeiros protótipos dessas máquinas, convencionalmente chamados de computadores de primeira geração, começaram a aparecer. Esses computadores foram feitos em tubos de vácuo e ficaram atrás das calculadoras modernas em termos de desempenho.

No desenvolvimento posterior de computadores, os seguintes estágios são distinguidos:

▪ segunda geração de computadores – a invenção dos transistores;

▪ computadores de terceira geração – criação de circuitos integrados;

▪ quarta geração de computadores - surgimento dos microprocessadores (1971).

Os primeiros microprocessadores foram produzidos pela Intel, o que levou ao surgimento de uma nova geração de PCs. Devido ao interesse em massa por tais computadores que surgiu na sociedade, a IBM (International Business Machines Corporation) desenvolveu um novo projeto para criá-los, e a Microsoft desenvolveu um software para este computador. O projeto terminou em agosto de 1981, e o novo PC ficou conhecido como IBM PC.

O modelo de computador desenvolvido tornou-se muito popular e rapidamente tirou do mercado todos os modelos anteriores da IBM nos anos seguintes. Com a invenção do IBM PC, começaram a ser produzidos os computadores padrão compatíveis com o IBM PC, que compõem a maior parte do mercado de PCs modernos.

Além dos computadores compatíveis com o IBM PC, existem outros tipos de computadores projetados para resolver problemas de complexidade variável em vários campos da atividade humana.

1.11. A evolução do desenvolvimento dos computadores pessoais

O desenvolvimento da microeletrônica levou ao surgimento de elementos eletrônicos integrados em microminiaturas que substituíram diodos e transistores semicondutores e se tornaram a base para o desenvolvimento e uso de PCs. Esses computadores tinham várias vantagens: eram compactos, fáceis de usar e relativamente baratos.

Em 1971, a Intel criou o microprocessador i4004 e, em 1974, o i8080, que teve um grande impacto no desenvolvimento da tecnologia de microprocessadores. Esta empresa até hoje continua a ser líder de mercado na produção de microprocessadores para PCs.

Inicialmente, os PCs foram desenvolvidos com base em microprocessadores de 8 bits. Um dos primeiros fabricantes de computadores com microprocessador de 16 bits foi a IBM, até a década de 1980. especializada na produção de grandes computadores. Em 1981, ela lançou pela primeira vez um PC que usava o princípio da arquitetura aberta, o que permitia alterar a configuração do computador e melhorar suas propriedades.

No final dos anos 1970 e outras grandes empresas nos principais países (EUA, Japão, etc.) começaram a desenvolver PCs baseados em microprocessadores de 16 bits.

Em 1984, apareceu o TIKMacintosh da Apple - um concorrente da IBM. Em meados dos anos 1980. computadores baseados em microprocessadores de 32 bits foram lançados. Sistemas de 64 bits estão atualmente disponíveis.

De acordo com o tipo de valores dos principais parâmetros e tendo em conta a aplicação, distinguem-se os seguintes grupos de equipamentos informáticos:

▪ supercomputador - um sistema único e supereficiente usado para resolver problemas complexos e grandes cálculos;

▪ servidor - um computador que fornece recursos próprios a outros usuários; existem servidores de arquivos, servidores de impressão, servidores de banco de dados, etc.;

▪ computador pessoal - um computador concebido para utilização no escritório ou em casa. O usuário pode configurar, manter e instalar software para este tipo de computador;

▪ estação de trabalho profissional - um computador com enorme desempenho e projetado para trabalhos profissionais em uma determinada área. Na maioria das vezes é fornecido com equipamento adicional e software especializado;

▪ laptop - um computador portátil com o poder computacional de um PC. Pode funcionar por algum tempo sem energia da rede elétrica;

▪ um pocket PC (organizador eletrônico), não maior em tamanho que uma calculadora, com teclado ou sem teclado, com funcionalidade semelhante a um laptop;

▪ PC de rede - um computador para uso comercial com um conjunto mínimo de dispositivos externos. O suporte operacional e a instalação do software são realizados centralmente. Também é utilizado para trabalhar em rede de computadores e funcionar offline;

▪ terminal - um dispositivo usado ao trabalhar no modo offline. O terminal não contém processador para execução de comandos; apenas realiza operações de inserção e transmissão de comandos do usuário para outro computador e retorno do resultado ao usuário.

O mercado de computadores modernos e o número de máquinas produzidas são determinados pelas necessidades do mercado.

1.12. Estrutura de sistemas de computação modernos

Na estrutura do PC atual, como o IBM PC, existem vários componentes principais:

▪ uma unidade de sistema que organiza o trabalho, processa informações, faz cálculos e garante a comunicação entre uma pessoa e um computador. A unidade de sistema do PC inclui placa-mãe, alto-falante, ventilador, fonte de alimentação e duas unidades de disco;

▪ placa do sistema (placa-mãe), que consiste em várias dezenas de circuitos integrados para diversos fins. O circuito integrado é baseado em um microprocessador, que é projetado para realizar cálculos em um programa armazenado em um dispositivo de armazenamento e controle geral do PC. A velocidade de um PC depende da velocidade do processador;

▪ Memória do PC, que se divide em interna e externa:

a) memória interna (principal) é um dispositivo de armazenamento associado ao processador e projetado para armazenar programas e dados usados ​​​​que estão envolvidos em cálculos. A memória interna é dividida em operacional (memória de acesso aleatório - RAM) e permanente (memória somente leitura - ROM). A memória de acesso aleatório destina-se a receber, armazenar e emitir informações, e a memória permanente destina-se a armazenar e emitir informações;

b) a memória externa (dispositivo de armazenamento externo - ESD) é utilizada para armazenar grandes quantidades de informações e trocá-las com a RAM. Por design, as VCUs são separadas dos dispositivos centrais do PC;

▪ placa de áudio (placa de áudio), utilizada para reprodução e gravação de som;

▪ placa de vídeo (placa de vídeo), que permite a reprodução e gravação de um sinal de vídeo.

Dispositivos de entrada externa em um PC incluem:

a) teclado - conjunto de sensores que percebem a pressão nas teclas e fecham algum circuito elétrico;

b) mouse - um manipulador que simplifica o trabalho com a maioria dos computadores. Existem mouses mecânicos, óptico-mecânicos e ópticos, com e sem fio;

c) scanner - um dispositivo que permite inserir texto, imagens, fotografias, etc. em um computador de forma gráfica.

Os dispositivos de saída de informações externas são:

a) um monitor usado para exibir vários tipos de informações na tela. O tamanho da tela do monitor é medido em polegadas como a distância entre os cantos inferior esquerdo e superior direito da tela;

b) uma impressora utilizada para imprimir textos e gráficos preparados em computador. Existem impressoras matriciais, jato de tinta e laser.

Dispositivos de entrada externos são usados ​​para disponibilizar as informações que o usuário tem para o computador. O principal objetivo de um dispositivo de saída externo é apresentar as informações disponíveis de forma acessível ao usuário.

Autor: Kozlova I.S.

<< Voltar: Símbolos

>> Encaminhar: Tecnologias de computador para processamento de informações (Classificação e projeto de computadores. Arquitetura de computadores. Memória em computadores pessoais. O conceito de comando e software de sistema de um computador. Sistema básico de entrada-saída (BIOS). O conceito de RAM CMOS)

Recomendamos artigos interessantes seção Notas de aula, folhas de dicas:

Lei de herança. Notas de aula

Direito de propriedade intelectual. Berço

A economia da empresa. Notas de aula

Veja outros artigos seção Notas de aula, folhas de dicas.

Leia e escreva útil comentários sobre este artigo.

<< Voltar

Últimas notícias de ciência e tecnologia, nova eletrônica:

A existência de uma regra de entropia para o emaranhamento quântico foi comprovada 09.05.2024

A mecânica quântica continua a nos surpreender com seus fenômenos misteriosos e descobertas inesperadas. Recentemente, Bartosz Regula do Centro RIKEN de Computação Quântica e Ludovico Lamy da Universidade de Amsterdã apresentaram uma nova descoberta que diz respeito ao emaranhamento quântico e sua relação com a entropia. O emaranhamento quântico desempenha um papel importante na moderna ciência e tecnologia da informação quântica. No entanto, a complexidade da sua estrutura torna a sua compreensão e gestão um desafio. A descoberta de Regulus e Lamy mostra que o emaranhamento quântico segue uma regra de entropia semelhante à dos sistemas clássicos. Esta descoberta abre novas perspectivas na ciência e tecnologia da informação quântica, aprofundando a nossa compreensão do emaranhamento quântico e a sua ligação à termodinâmica. Os resultados do estudo indicam a possibilidade de reversibilidade das transformações de emaranhamento, o que poderia simplificar muito seu uso em diversas tecnologias quânticas. Abrindo uma nova regra ... >>

Mini ar condicionado Sony Reon Pocket 5 09.05.2024

O verão é uma época de relaxamento e viagens, mas muitas vezes o calor pode transformar essa época em um tormento insuportável. Conheça um novo produto da Sony – o minicondicionador Reon Pocket 5, que promete deixar o verão mais confortável para seus usuários. A Sony lançou um dispositivo exclusivo - o minicondicionador Reon Pocket 5, que fornece resfriamento corporal em dias quentes. Com ele, os usuários podem desfrutar do frescor a qualquer hora e em qualquer lugar, simplesmente usando-o no pescoço. Este miniar condicionado está equipado com ajuste automático dos modos de operação, além de sensores de temperatura e umidade. Graças a tecnologias inovadoras, o Reon Pocket 5 ajusta o seu funcionamento em função da atividade do utilizador e das condições ambientais. Os usuários podem ajustar facilmente a temperatura usando um aplicativo móvel dedicado conectado via Bluetooth. Além disso, camisetas e shorts especialmente desenhados estão disponíveis para maior comodidade, aos quais um mini ar condicionado pode ser acoplado. O dispositivo pode, oh ... >>

Energia do espaço para Starship 08.05.2024

A produção de energia solar no espaço está se tornando mais viável com o advento de novas tecnologias e o desenvolvimento de programas espaciais. O chefe da startup Virtus Solis compartilhou sua visão de usar a Starship da SpaceX para criar usinas orbitais capazes de abastecer a Terra. A startup Virtus Solis revelou um ambicioso projeto para criar usinas de energia orbitais usando a Starship da SpaceX. Esta ideia poderia mudar significativamente o campo da produção de energia solar, tornando-a mais acessível e barata. O cerne do plano da startup é reduzir o custo de lançamento de satélites ao espaço usando a Starship. Espera-se que este avanço tecnológico torne a produção de energia solar no espaço mais competitiva com as fontes de energia tradicionais. A Virtual Solis planeja construir grandes painéis fotovoltaicos em órbita, usando a Starship para entregar os equipamentos necessários. Contudo, um dos principais desafios ... >>

Notícias aleatórias do Arquivo

Gadget Panasonic MS-DS100 vai se livrar do cheiro desagradável de sapatos 17.08.2018

A Panasonic introduziu um "desodorante eletrônico" para sapatos chamado MS-DS100. O dispositivo gera radicais hidroxila, referidos pelo fabricante como "Panasonic Genuine Nano Ions", que eliminam efetivamente os odores, visando a causa raiz.

O corpo do dispositivo possui seis saídas que direcionam os íons em todas as direções. Devido ao tamanho de 5 a 20 nm, eles penetram facilmente no material do qual os sapatos são feitos.

Uma sessão de remoção de odor leva 5 horas. Para sapatos com odor particularmente desagradável, você pode selecionar o modo de limpeza avançado, que leva até 7 horas.

Outras notícias interessantes:

▪ neurônios da solidão

▪ Interação da radiação com a água

▪ Parque eólico solar será a estrutura mais alta da América

▪ chip eletrônico molecular

▪ Um novo tipo de bateria à base de carbono

Feed de notícias de ciência e tecnologia, nova eletrônica

 

Materiais interessantes da Biblioteca Técnica Gratuita:

▪ seção do site Eletrodomésticos. Seleção de artigos

▪ artigo Algumas flores falsas têm medo de chuva. expressão popular

▪ artigo Quem inventou os selos? Resposta detalhada

▪ artigo Nó de camelo. Dicas de viagem

▪ artigo Regulador do ciclo limpa pára-brisas. Enciclopédia de rádio eletrônica e engenharia elétrica

▪ artigo Linhas aéreas com tensão superior a 1 kV. Interseção e convergência de linhas aéreas entre si. Enciclopédia de rádio eletrônica e engenharia elétrica

Deixe seu comentário neste artigo:

Имя:


E-mail opcional):


Comentário:





Todos os idiomas desta página

Página principal | Biblioteca | Artigos | Mapa do Site | Revisões do site

www.diagrama.com.ua

www.diagrama.com.ua
2000-2024