Boa vindas

......................BEM VINDOS AO BLOG DE ESTUDO DO PROFESSOR RAUL SALUSTIANO

Propaganda

Nova Tecnologia de HD's

O que é SSD?

Como você já sabe, SSD é a sigla para Solid-State Drive, algo como "Unidade de Estado Sólido", em português. Trata-se de um tipo de dispositivo para armazenamento de dados que, de certa forma, concorre com os discos rígidos. Seu nome faz alusão à inexistência de peças móveis na constituição do dispositivo, o que já não acontece nos HDs, que precisam de motores, discos e cabeçotes de leitura e gravação para funcionar. O termo "Estado Sólido" em si faz referência ao uso de material sólido para o transporte de sinais elétricos entre transistores, em vez de uma passagem baseada em tubos a vácuo, como era feito na época das válvulas.
Em aparelhos SSD, o armazenamento é feito em um ou mais chips de memória, dispensando totalmente o uso de sistemas mecânicos para o seu funcionamento. Como consequência dessa característica, unidades do tipo acabam sendo mais econômicas no consumo de energia, afinal, não precisam alimentar motores ou componentes semelhantes (note, no entanto, que há outras condições que podem elevar o consumo de energia, dependendo do produto). Essa característica também faz com que "discos" SSD (não se trata de um disco, portanto, o uso dessa denominação não é correto, mas é um termo muito utilizado) utilizem menos espaço físico, já que os dados são armazenados em chips especiais, de tamanho reduzido. Graças a isso, a tecnologia SSD começou a ser empregada de forma ampla em dispositivos portáteis, tais como netbooks, notebooks ultrafinos e tocadores de áudio (MP3-player



Os SSDs ou "Solid State Disks" são possivelmente a maior revolução dentro do ramo dos HDs desde o IBM 350, já que eles utilizam um princípio de armazenamento completamente diferente, com os discos magnéticos dando lugar aos chips de memória Flash tipo Pen  Driver's e cartões de Memória.


































A vantagem óbvia dos SSDs é que eles oferecem tempos de acesso muito baixos, combinados com excelentes taxas de leitura e gravação em setores aleatórios, onde mesmo os melhores HDs magnéticos oferecem apenas alguns poucos MB/s. Isso melhora o desempenho consideravelmente em uma grande gama de aplicativos e reduz bastante o tempo de boot, tornando o sistema muito mais responsível.
Os SSDs também oferecem um consumo elétrico mais baixo (o que os tornam um componente atrativo especialmente para os notebooks), são silenciosos, resistentes a impactos e oferecem uma melhor segurança contra perda de dados devido a defeitos de hardware, já que não possuem partes móveis.
A grande desvantagem por outro lado é o custo por megabyte, já que em vez de combinar 4 discos magnéticos de 500 GB cada um para criar um HD de 2 TB, você precisa juntar 20 chips de memória Flash de 8 GB cada para criar um SSD de apenas 160 GB. Quanto mais gigabytes, mais chips, o que leva os preços dos drives de maior capacidade para as alturas.
Os primeiros SSDs para uso doméstico começaram a chegar ao mercado em 2007, mas por serem muito caros (pense em US$ 500 por um SSD de 32 GB) eles receberam pouca atenção. Apenas recentemente (final de 2009) os SSDs começaram a chegar com mais força, liderados pela série X25 da Intel e modelos da Kingston, Corsair, OCZ, Super Talent e outros fabricantes menores, que se especializaram em vender versões OEM de drives da Samsung, Indilinx ou até mesmo da Intel.













A grande maioria dos SSDs domésticos utilizam módulos de memória Flash MLC, assim como nos cartões e pendrives. Entretanto, eles oferecem um diferencial importante, que é o uso de múltiplos canais de acesso. Isso permite que o controlador acesse vários chips simultaneamente, dividindo os arquivos em pequenos blocos que podem ser divididos entre os chips e depois lidos simultaneamente, de maneira muito similar ao que temos em um sistema RAID.
A maioria dos drives atuais utilizam 10 ou 20 chips de memória Flash (o que permite que os fabricantes produzam drives de baixa e alta capacidade usando as mesmas placas) e 10 canais de acesso simultâneo. Um bom exemplo é o Intel X25-M G2, que usa 10 chips na versão de 160 GB e 20 chips na versão de 320 GB (com os mesmos 10 canais de acesso em ambos os casos).
Ao escrever um arquivo de 4 MB, por exemplo, o controlador o dividirá em 10 blocos de 400 KB cada um, que serão escritos simultaneamente em 10 chips diferentes, ocupando um total de 100 páginas de 4 KB em cada um. Ao ler o arquivo posteriormente, a leitura é novamente dividida entre os 10 chips, o que multiplica tanto a taxa de escrita quanto a de leitura, sem que exista penalidade com relação aos tempos de acesso.
Outro ponto importante a favor dos SSDs é o uso de controladores mais inteligentes, que utilizam buffers de dados relativamente grandes. Isso permite que as operações sejam organizadas e agrupadas de maneiras mais eficientes e muitas operações sejam cacheadas.
Em situações em que a controladora dispõe de um volume suficiente de blocos limpos (veja mais detalhes a seguir) um SSD de segunda geração como o Intel X25-M G2 pode atingir facilmente 250 MB/s de taxa de leitura sequencial e 80 MB/s de escrita sequencial (muitos drives atingem os 160 MB/s), se aproximando dos 300 MB/s teóricos do SATA-300.
Entretanto, é nas operações de leitura e escrita em setores aleatórios que a diferença se torna mais marcante. Enquanto um HD magnético de 7200 RPM não é capaz de manter mais do que 800 ou 1000 KB/s de escrita ao gravar arquivos de 4 KB em setores aleatórios, um bom SSD é capaz de ultrapassar facilmente os 20 MB/s (o X25-M G2 é capaz de manter de 36 a 40 MB/s de acordo com o volume de requisições simultâneas), o que acaba representando uma diferença muito grande em situações reais de uso.

Desempenho: SSD "novo" e SSD "usado"

Diferente dos HDs magnéticos, o desempenho dos SSDs praticamente não é afetado pela fragmentação, já que não faz muita diferença para o controlador se os endereços a serem lidos estão em setores adjacentes ou espalhados pelo disco. Entretanto, particularidades na maneira como os setores são acessados fazem com que, em muitas situações, o desempenho decaia com o uso, conforme dados são gravados e apagados. À primeira vista, o efeito pode parecer similar à perda de desempenho causada pela fragmentação, mas as razões são completamente diferentes.
Em um HD magnético os dados são gravados em setores de 512 bytes, que podem ser apagados e sobrescritos de maneira independente. Nos SSDs, por outro lado, os endereços são organizados em páginas de 4 KB, que são então agrupadas em blocos de 512 KB:
As páginas funcionam de maneira muito similar aos clusters dos HDs magnéticos. Cada página pode armazenar um arquivo ou fragmento de arquivo. Dois arquivos não podem compartilhar a mesma página, o que faz com que arquivos com menos de 4 KB ocupem uma página inteira, desperdiçando espaço.
Este não chega a ser um grande problema, já que a maioria dos sistemas de arquivos utilizam clusters de 4 KB ou mais de qualquer forma. O grande problema é mesmo a questão dos blocos e das operações de escrita.
Assim como em um HD magnético, a controladora é capaz de acessar as páginas de forma independente, lendo e gravando dados. Em um chip de memória MLC típico, uma operação de leitura demora 50 microssegundos (0.05 ms) e uma operação de escrita demora 900 microssegundos, o que explica a diferença entre o desempenho de leitura e escrita na maioria dos SSDs.
O grande problema é que as páginas na memória Flash não podem ser simplesmente regravadas, como os setores em um HD magnético. Sempre que é necessário gravar dados em uma página já ocupada, a controladora precisa primeiro apagar os dados anteriores (revertendo as células a seu estado original) para só então executar a nova operação de escrita.
Para piorar não é possível apagar as páginas de forma independente. Sempre que precisa apagar alguma coisa, a controladora tem que limpar todo o bloco (128 páginas), uma operação demorada, que leva 1 ms ou mais (ou seja, 1000 vezes mais tempo que a escrita de uma página vazia).
Se já houverem outros dados válidos dentro do bloco a ser apagado, a operação se torna ainda mais demorada, já que a controladora precisa ler todo o conteúdo do bloco, copiá-lo para o buffer, executar o comando de limpeza (que apaga todo o conteúdo do bloco), fazer a modificação dos dados no buffer e em seguida gravar todo o bloco novamente. Essa sequência de passos demora uma verdadeira eternidade, o que explica como o desempenho de muitos SSDs pode ser tão baixo em algumas situações.
Para reduzir o número de vezes em que precisa arcar com a penalidade, a controladora procura sempre que possível usar blocos vazios, em vez de regravar o conteúdo de blocos existentes. Nesse caso, um novo bloco é usado para armazenar a versão modificada e a tabela de alocação do sistema de arquivos é atualizada, com a entrada apontando para o novo endereço.
O grande problema com essa abordagem é que ela funciona bem durante as primeiras semanas ou meses de uso, mas a partir do momento em que todos os blocos foram usados pelo menos uma vez, a controladora passa a ser obrigada a voltar e reciclar os blocos anteriormente utilizados, executando todos os passos. Isso leva a um fenômeno curioso, onde o desempenho do drive "novo" é consideravelmente melhor que o do drive "usado", depois de algum tempo de uso. Como comentei, o sintoma é similar ao que temos em um HD fragmentado, mas a causa é diferente.
Esse problema afetou toda a primeira geração de SSDs (dos genéricos baseados em controladores da jMicron aos Intel X25), cujo desempenho de escrita caía para menos da metade depois de algum tempo de uso. O caso acabou gerando uma grande repercussão, o que levou os fabricantes a responderem com atualizações de firmware destinadas a remendar o problema, implementando sistemas de "reciclagem", que limpam os setores marcados como vagos enquanto o drive está ocioso, mantendo sempre um determinado volume de blocos vagos.
A solução definitiva veio com o comando TRIM, uma nova função que permite ao sistema operacional agendar a limpeza das páginas cujo conteúdo foi deletado ou movido em vez de simplesmente marcá-las como vagas. Isso faz com que as páginas livres do SSD realmente estejam prontas para receber novos dados, sem depender unicamente de algum sistema de reciclagem executado pela controladora.
O grande problema com o TRIM é que ele é suportado apenas pelo Windows 7 e por versões recentes do kernel Linux, o que deixa de fora usuários do Windows Vista ou Windows XP. No caso deles existem utilitários de otimização oferecidos pelos fabricantes, como o SSD Toolbox da Intel, que permitem executar testes e otimizações.
Naturalmente, o TRIM precisa ser suportado também pelo SSD, o que abre outra margem para problemas, já que apenas os drives produzidos a partir do final de 2009 oferecem suporte a ele. No caso dos drives da Intel, por exemplo, o suporte está disponível apenas a partir do X25-M G2. Se você tem um X25-M da primeira geração, está sem sorte.
Concluindo, você pode se perguntar por que os fabricantes não passam a produzir chips de memória Flash com páginas que podem ser apagadas e regravadas de forma independente, eliminando o uso dos blocos.
Bem, com certeza muitos fabricantes devem ter considerado essa ideia. O grande problema é que isso demandaria o uso de muito mais trilhas, o que reduziria a densidade dos chips (as trilhas roubariam o espaço utilizado pelas células) e aumentaria o custo por megabyte. Outro obstáculo é que os chips atuais (com os blocos de 512 KB) são os mesmos utilizados em cartões e pendrives. Desenvolver linhas separadas de chips destinados a SSDs aumentaria ainda mais o custo, tornando a produção quase inviável. Como o bolso é a parte mais sensível do corpo humano, soluções via software como o TRIM acabam sendo a resposta mais fácil.



Esses drives SSD também podem contar com uma pequena quantidade de memória RAM que atua como cache (ou buffer), não só para acelerar o acesso aos dados mais utilizados, mas também para aumentar a vida útil do dispositivo. E é claro: também podem ter um chip controlador (muitas vezes chamado de SoC, de System on a Chip) responsável por gerenciar o acesso aos chips de armazenamento.
A tecnologia aplicada nos chips de memória Flash das unidades SSD pode variar de modelo para modelo. Como você já sabe, unidades baseadas em MLC são mais baratas, sendo indicadas para uso doméstico ou em escritórios. Unidades com chips SLC, por sua vez, são mais adequados para aplicações mais críticas, como um servidor de ERP, por exemplo.
Atualmente, há duas tecnologias principais que podem ser empregadas tanto em memórias Flash NOR quando em Flash NAND: Multi-Level Cell (MLC) e Single-Level Cell (SLC).
O primeiro tipo, MLC, consiste em um processo que utiliza tensões diferenciadas que fazem com que uma célula de memória armazene dois (mais comum) ou mais bits, em vez de apenas um, como é o padrão. Graças à tecnologia MLC, os custos de dispositivos de armazenamento Flash se tornaram menores, aumentando consideravelmente a oferta de produtos como pendrives e tocadores de MP3 de preços mais acessíveis. Vale frisar que o MLC tem uma tecnologia concorrente e parecida chamada Multi-Bit Cell (MBC).
O tipo SLC, por sua vez, nada mais é do que as memórias Flash "normais", isto é, que armazenam um bit em cada célula. Chips do tipo SLC, obviamente, são mais caros, mas isso não quer dizer que são inviáveis: em geral, são mais resistentes, suportando, por padrão, cerca de 100 mil operações de leitura e escrita por célula, contra 10 mil do MLC (esses números podem variar, conforme a evolução da tecnologia), e permitem que estas execuções sejam efetuadas em menor tempo. A tecnologia SLC é normalmente utilizada em dispositivos de armazenamento de alto desempenho.
É importante destacar que há também uma técnica chamada Die-Stacking que igualmente tem o objetivo de aumentar a capacidade de armazenamento de memórias Flash. Para isso, os chips são "empilhados". A ideia aqui é relativamente simples: dois ou mais chips de memória Flash são colocados um em cima do outro, interconectados e encapsulados, como se fossem um dispositivo só. A técnica Die-Stacking pode ser encontrada, por exemplo, nos cartões de memória microSD.
A capacidade de cada chip também pode variar, obviamente. Um dos principais fatores para isso é uma característica chamada miniaturalização. Aqui, a ideia é a de deixar os transistores que compõem o chip com o menor tamanho possível. Assim, pode-se armazenar mais dados sem, no entanto, ser necessário aumentar o tamanho físico do chip como um todo. Na época da publicação desta matéria, a Intel havia anunciado unidades SSD com chips com processo de fabricação de apenas 25 nanômetros (nm), medida que equivale a um milionésimo de milímetro, isto é, um milímetro dividido por um milhão. Em abril deste ano, a própria Intel havia anunciado uma tecnologia de fabricação de chips NAND com 20 nm:









A questão da capacidade: Assim como no caso dos chips de memória, a capacidade dos chips de memória Flash é medida em valores binários e não em decimais (como no caso dos HDs). Com isso, um chip de 8 GB armazena 8.589.934.592 bytes, e não 8.000.000.000.
Entretanto, os fabricantes adotam a nomenclatura decimal, assim como os fabricantes de HDs, reduzindo o espaço utilizável do disco. Um SSD de 80 GB passa a ter então apenas 80 bilhões de bytes, ou seja, apenas 74.5 GB binários, assim como em um HD magnético.
Os 5.5 GB restantes são usados pelo controlador como uma área reservada (spare area). Ela tem basicamente duas funções: servir como uma área de armazenamento temporário para novos dados, permitindo que o controlador grave informações imediatamente mesmo que não tenha setores limpos disponíveis e, mais importante, permite que o controlador remapeie páginas defeituosas.
Como sempre, as 10.000 operações de escrita são apenas uma estimativa. Dentro do SSD, algumas células podem falar muito antes, enquanto outras acabam resistindo a um volume muito maior de escritas. A área reservada permite que o controlador substitua as páginas conforme os defeitos aparecem, fazendo com que a longevidade do HD seja muito maior. Graças a isso, o sistema começará a acusar setores defeituosos apenas depois que o SSD já tiver 7% (5.5 GB no caso de um SSD de 80 GB) de páginas defeituosas.

A popularização

Considerando o brutal custo por gigabyte dos SSDs, não faz muito sentido pensar em utilizá-los para armazenar seus 2 TB de filmes e músicas (a menos que você seja algum milionário excêntrico sem nada melhor para fazer com o dinheiro...) já que você simplesmente gastaria uma fortuna.
O truque para reduzir os custos e maximizar os ganhos é combinar um SSD de baixa capacidade com um ou mais HDs magnéticos de grande capacidade, usando o SSD para armazenar a partição principal (com o sistema operacional, programas e arquivos de trabalho) e usar o HD magnético para os arquivos maiores.
Isso permite que o SSD desempenhe seu papel de oferecer um boot mais rápido e carregamento quase instantâneo dos aplicativos, exibindo seus dotes com leitura de setores não sequenciais, ao mesmo tempo em que o HD magnético tem a oportunidade de demostrar seus talentos com relação à capacidade e leitura de setores sequenciais.
Não demorou para que muitos fabricantes percebessem o nicho, passando a lançar SSDs de baixo custo e baixa capacidade, destinados a serem usados como disco de boot. Um bom exemplo é o Kingston V Series de 40 GB, que é uma versão econômica do Intel X25-M G2, com menos chips de memória Flash (ele usa apenas 5 chips de 8 GB, em vez de 10 chips de 16 GB como no X25-M G2 de 160 GB). Ele foi o primeiro SSD de alto desempenho a ser vendido (nos EUA) abaixo da marca dos US$ 100, o que pode ser considerado um marco.








Formatos: Embora os SSDs não pareçam tão atrativos nos desktops devido ao custo e à baixa capacidade em relação aos HDs magnéticos, eles tendem a se tornar muito populares em notebooks ultraportáteis. Por serem mais caros, eles são os modelos que podem absorver melhor o aumento no custo e, ao mesmo tempo, são onde as dimensões reduzidas e o consumo elétrico mais baixo dos SSDs fazem mais diferença.
Os primeiros modelos de SSDs destinados a ultraportáteis utilizam o formato half-slim, com metade do comprimento de um HD de 2.5" regular, baseados no conector SATA padrão. Entretanto, prevendo o crescimento do setor, a SATA-IO se apressou em criar um padrão miniaturizado, o mSATA (ou mini-SATA) que permite a criação de SSDs mais compactos









Características a se observar na escolha de uma unidade SSD
Ao escolher uma unidade SSD, é sempre importante verificar as especificações do dispositivo. Uma delas está ligada ao aspecto do desempenho. Quantos kilobytes podem ser lidos por segundo? Quantos podem ser gravados nesse mesmo tempo? Tais parâmetros podem variar bastante de um produto para outro. É comum, por exemplo, encontrar unidades SSD formada por um conjunto de 10 chips de memória Flash. O controlador do dispositivo pode dividir um determinado arquivo em 10 partes para que estes sejam gravados simultaneamente na unidade, tornando o processo de gravação como um todo mais rápido, por exemplo. Porém, recursos a mais ou menos podem melhorar ou piorar esse processo. Daí a importância de verificar esses detalhes. Felizmente, é praticamente regra entre os fabricantes informar a quantidade de dados que podem ser gravados e também lidos por segundo.
Outro parâmetro que também pode ser observado é o IOPS (Input/Output Operations Per Second), que indica a quantidade estimada de operações de entrada e saída por segundo, tanto para leitura quanto para escrita de dados. Quanto maiores esses números, melhor.
Quanto à capacidade, como já informado no texto, esta costuma ser muito menor quanto comparado aos HDs porque ainda se trata de um tecnologia cara. Por isso, não será raro encontrar situações onde um mesmo computador oferece, por exemplo, HD de 500 GB ou, como opção, SSD de apenas 128 GB. Dependendo do caso, você pode utilizar ambas as tecnologias: instalar o sistema operacional em um SSD para agilizar o desempenho e armazenar seus arquivos pessoais em um disco rígido convencional.
Por fim, vale a pena checar também qual o tempo médio de durabilidade previsto pelo fabricante e se a unidade conta com recursos adicionais, como buffer, o já mencionado TRIM, a tecnologia de monitoramento S.M.A.R.T. (amplamente utilizada com HDs), ou até mesmo RoHS (Restriction of Certain Hazardous Substances), que indica que o fabricante não utilizou determinadas substâncias prejudiciais à saúde e ao meio ambiente na fabricação do produto.

HDs híbridos, aceleradores e RAM-drives

Um meio termo entre os SSDs e os HDs tradicionais são os HHDs (Hybrid Hard Drives, ou HDs híbridos), que são HDs tradicionais, que incorporam chips de memória Flash, usados como um buffer de dados.
Todos os HDs atuais incluem uma pequena quantidade de memória SDRAM (ou SRAM), usada como cache de disco. O cache é bastante rápido, mas é limitado por dois fatores: é muito pequeno (16 MB na maioria dos HDs atuais) e perde os dados armazenados quando o micro é desligado.
Em um HHD é usada uma quantidade generosa de memória Flash (512 MB ou mais em muitos modelos), que tem a função de armazenar dados frequentemente acessados (como arquivos carregados durante o boot), de forma que eles continuem disponíveis depois de desligar o micro e possam ser usados no próximo boot; e, também, a de servir como um buffer de dados, permitindo que arquivos sejam salvos na memória Flash e copiados para os discos magnéticos quando for mais conveniente. Nesse caso não existe problema de perda de dados armazenados no buffer ao desligar o micro no botão, pois os dados ficam retidos na memória Flash e são gravados nos discos magnéticos no boot seguinte.
Além dos ganhos de desempenho, sobretudo a potencial redução no tempo de boot, o buffer permite que o HD fique mais tempo em modo de economia de energia, já que não é preciso "acordar" o HD ao salvar arquivos ou quando o sistema precisa atualizar arquivos de log, por exemplo, operações que podem ser realizadas no buffer. Isso acaba tornando a tecnologia bastante interessante para os notebooks, onde o HD chega a representar um quarto do consumo elétrico total.
Naturalmente, a memória Flash é muito mais lenta que a memória RAM tipicamente usada no cache de disco e (em muitos casos) mais lenta até mesmo que os discos magnéticos em leitura ou gravação de arquivos sequenciais. Ao salvar um arquivo grande (uma imagem de DVD, por exemplo), a gravação é feita diretamente nos discos magnéticos, sem passar pelo buffer.
Temos também a tecnologia Robson, desenvolvida pela Intel, onde temos um buffer similar, instalado na placa-mãe. Os chips de memória Flash podem ser incorporados diretamente na placa, ou instalados através de uma placa de expansão (opção que fica a cargo do fabricante):









Diferente de um SSD típico, ele é uma unidade 4U externa, que é conectada ao servidor através de um link Fibre Channel. Dentro do gabinete temos 128 ou 256 módulos de memória de 2 GB cada um, combinados com uma fonte de alimentação e um conjunto de controladores encarregados de criar a interface de dados e dividir as operações de leitura e gravação entre os módulos (maximizando a performance).
Como a memória RAM é volátil e dados em servidores são uma coisa importante, ele implementa um sistema duplo de manutenção, composto por uma bateria que preserva os dados da memória por algumas horas em caso de falta de energia e um sistema de backup contínuo dos dados em uma unidade de memória Flash.
Em 2005, a Gigabyte tentou popularizar o uso de RAM-drives em desktops com o i-RAM, uma placa PCI que permitia o uso de 4 GB de memória DDR:








Apesar do uso do slot PCI, a conexão de dados era feita através de uma porta SATA, o que permitia que o i-RAM fosse detectado como um HD convencional, sem necessidade de drivers adicionais (o slot PCI era usado apenas para o fornecimento elétrico). Ele continuava sendo alimentado com o PC desligado (desde que a fonte continuasse ligada na tomada, naturalmente) e uma pequena bateria de backup mantinha os dados por algumas horas em caso de falta de luz.
Graças ao uso dos módulos de memória, os tempos de acesso eram muito baixos, mas a taxa de transferência era limitada aos 150 MB/s da interface SATA. A ideia não era de todo ruim, mas ele acabou desaparecendo com a chegada dos primeiros SSDs NAND.

Considerações finais..

As pessoas se  pergunta se a tecnologia SSD sinaliza o fim da era dos discos rígidos HD magnético . É difícil dizer. Em relação à capacidade de armazenamento, os HDs ainda representam uma excelente relação custo-benefício, sem contar que esses dispositivos contam com uma média de durabilidade bastante satisfatória o que agrada a maioria dos usuarios.
Uma vez que as unidades SSD têm um custo de armazenamento muito mais elevado e, em muitos casos, são vistas com a desconfiança que é natural em tudo o que é novo, vai levar algum tempo para que os HDs percam o seu reinado, se é que isso vai acontecer. Mas o fato é que, inegavelmente, a tecnologia SSD veio para ficar, e quem sabe que você não está utilizando esta tecnologia em sua empresa onde você trabalha, pois ja existem empresas que estão lançando computadores com esta tecnologia

Nenhum comentário:

Postar um comentário