Date post: | 12-Jul-2015 |
Category: |
Technology |
Upload: | marcelo-savio |
View: | 685 times |
Download: | 1 times |
4
Technology leadership council Brazil
apresenTação
Transformação e mudança: a decisão é sua – lidere ou desisTaRodrigo Kede de Freitas Lima, General Manager IBM Brasil
Estamos em um momento de grandes transformações. Se você
vive no Brasil e trabalha em tecnologia tem motivo de sobra
para se sentir em uma montanha-russa. Toda montanha- russa
desperta uma serie de sensações – enquanto uns tem medo,
outros se divertem, outros sentem frio na barriga; mas uma
coisa é certa – a maioria no final da viagem tem uma sensação
de desafio cumprido e de ter vencido.
Podemos começar falando do Brasil. Em 1985, depois de mais
de 20 anos de regime militar, tivemos novamente um presidente
civil (Tancredo Neves), eleito pelo congresso nacional, que
nem chegou a tomar posse, pois
faleceu antes disso. A nova geração
talvez não conheça os detalhes do
movimento “Diretas Já” que mostrou a
força que tem um povo unido que briga
pelos seus direitos. Entre 1985 e 1990
passamos por vários planos econômicos
fracassados e uma eleição presidencial
– a primeira na qual o povo foi às urnas
e escolheu seu presidente. Estávamos
ainda engatinhando no restabelecimento
da tal democracia, algo completamente
esquecido nos quase 21 anos de regime
militar. Hoje, olhando para trás, fica mais
fácil entender a história toda, mas não
é possível “(re)aprender democracia” em 5 anos. Cometemos
muitos erros e alguns acertos.
Em 1989, fomos às urnas e elegemos um presidente da República
jovem, que prometia mudar o país, corrigir a onda de corrupção
que assolava o nosso querido Brasil. Pouco mais de 2 anos
depois de sua eleição, o povo foi mais uma vez às ruas para
pedir o impeachment do então presidente Fernando Collor.
Seu vice-presidente assumiu o poder e concluiu o mandato em
1995. Foram anos de muito aprendizado para o povo, para os
políticos e para o sistema. Eu costumo dizer que esse foi um
período importante de transformação do país em uma democracia
(por mais rudimentar e problemático que tenha sido o período,
conseguimos restabelecer um país democrático).
Novamente fomos às urnas e elegemos um novo presidente.
Fernando Henrique Cardoso, ex-ministro da Fazenda do governo
Itamar, um dos pais do Plano Real, construiu a credibilidade com
o país inteiro enquanto era ministro para se candidatar e ganhar
as eleições. FHC, como era conhecido, foi responsável por uma
fase fundamental no desenvolvimento do país. Nos seus dois
mandatos, foi o responsável por estabilizar a economia e mudar
o cenário do país: criou a lei de responsabilidade fiscal, saneou
o sistema financeiro, construindo um dos mais sólidos do mundo,
privatizou vários setores como o de Telecomunicações e Energia.
Antes do seu Plano Real, vivíamos um mundo de 40% de inflação
ao mês; algo inimaginável nos dias de
hoje – os preços nos supermercados
mudavam várias vezes ao longo do dia
(dá para viver assim?). Considero a fase
do Governo FHC como de eficiência
operacional e estabilização econômica.
Novamente estamos falando de quase
10 anos de muita transformação.
Em 2002, a população elegeu Luis
Inácio Lula da Silva, ou Lula apenas.
Lula certamente surpreendeu muitos
durante sua gestão, menos radical do
que era esperado por alguns setores.
Honrou contratos, manteve a filosofia de
gestão econômica do governo anterior e colocou em cargos-
chave pessoas com bastante credibilidade como o presidente
do Banco Central – Henrique Meirelles (ex CEO Global do Bank
Boston). Lula focou seus esforços em resolver o problema de
pobreza no país, sua principal bandeira. No final de suas duas
gestões, acho que existem, assim como nos governos anteriores,
alguns marcos que foram fundamentais para o desenvolvimento
do país. O primeiro foi o que chamo de Mobilidade Social – uma
democracia em algum momento aprende a gerir o país e estabilizar
sua economia. Depois disso é natural que a pirâmide social
comece e mudar. Tínhamos uma classe média que representava
pouco mais de 20% da população e hoje estamos falando de
quase 60% da população. O Brasil também se beneficiou por
5
Technology leadership council Brazil Technology leadership council Brazil
ser um dos maiores produtores de commodities do mundo e
aumentou significativamente o nível de exportações para a
China, segunda economia do mundo, que virou nosso maior
parceiro comercial, trazendo muita riqueza para o país. Natural,
depois do restabelecimento da democracia e da estabilização
da economia. O país cresceu acima da média das décadas
anteriores graças a uma nova classe de consumidores. Nosso
crescimento como país foi resultado do crescimento do consumo
interno e do sucesso da China.
Em 2010, Dilma foi eleita presidente da República. Desde
2008, com a crise mundial, crescer ficou mais difícil. Somente o
consumo doméstico não é suficiente para fazer o país crescer nos
patamares necessários. A China, apesar de continuar crescendo,
cresce menos e compra menos. E agora? O nome do jogo para
o Brasil é eficiência e competitividade. Para conseguir isso,
precisamos de um investimento enorme em infraestrutura e
educação para disponibilização de mão de obra qualificada.
Com aproximadamente 5% de taxa de desemprego, como
vamos crescer? Temos que fazer mais com o mesmo, ser mais
eficientes e produtivos. Portos, aeroportos, ferrovias, tecnologia,
pesquisa e desenvolvimento nas mais diversas áreas, investimento
pesado em educação básica... Estamos no meio dessa batalha.
Já começamos esse trabalho como país. Muitas são as críticas e
o povo, com legitimidade, foi às ruas questionar e pedir solução
para os seus problemas.
Sou um eterno otimista e acredito que, apesar dos erros e da
velocidade, estamos fadados a crescer e nos tornar um país
desenvolvido em algum momento. Temos 19% da terra arável e
12% da água potável do mundo. Quanto vai valer isso em 2050,
quando 70% da população mundial estará vivendo em cidades?
Temos que acelerar os investimentos e o desenvolvimento. Essa
será a única forma de termos um país desenvolvido para os
nossos netos.
Vivemos, portanto, num país em uma enorme Transformação.
E cada um de nós tem seu papel nessa jornada.
Você deve estar pensando qual a relação disso com tecnologia
e com a IBM. Na minha opinião, absolutamente tudo. Toda
essa transformação só existirá com uso intenso de tecnologia
pela empresas, governos e instituições. Nós da IBM investimos
100 anos trabalhando pelo progresso da sociedade, portanto
podemos e teremos um papel ainda mais fundamental na
transformação do Brasil.
Por esta razão, gostaria de falar sobre outra transformação que
esta acontecendo no mercado de TI. Os clientes estão cada vez
mais comprando outcomes, soluções de negócio, específicos
para cada setor, ao invés de infraestrutura. Temos que pensar
que agora a commoditização não será dos produtos apenas
e sim dos modelos. O mundo caminha a passos largos para
cloud, mobile, social business e big data. A tecnologia está
saindo do back office e indo cada vez mais para o front office.
Está deixando de ser custo e virando fonte de receitas. “Dados”
já são o novo recurso natural e as empresas e instituições que
entenderem isso sairão na frente. No caso específico da IBM,
somos a única empresa do mercado que desenvolveu a tecnologia
de Computação Cognitiva, que na minha opinião vai mudar a
forma como vivemos e trabalhamos.
Estamos, portanto, vivendo um momento de transformação intensa
em tecnologia também. Tenho certeza de que daqui a 5 anos,
teremos novos players e alguns concorrentes desaparecerão.
Precisamos, cada vez mais, nos especializar nas novas tendências
da tecnologia e não somente nos produtos – e isso é válido
para vendas, para o time técnico, para delivery e até mesmo
para o back office.
Dizemos que a cada 30-40 anos, a tecnologia passa por uma
onda disruptiva. Esse momento é agora.
Brasil e Tecnologia, ambos num momento crucial de transformação.
Combinação “especial”. Como disse, tem gente que gosta de
montanha-russa (como eu), outros não.
A jornada é longa, mas o jogo é ganho a cada dia.
Lidere ou desista.
Copyright © 2014 IBM Brasil — Indústria, Máquinas e Serviços Ltda.
Todas as marcas neste livro são propriedades de seus respectivos donos, com direitos reservados.
Organização: Technology Leadership Council Brazil.
Coordenadores do livro: Argemiro José de Lima e Maria Carolina Azevedo.
Projeto Gráfico: www.arbeitcomunicacao.com.br
Dados Internacionais de Catalogação na Publicação (CIP) (Câmara Brasileira do Livro, SP, Brasil)
Transformação e mudança [livro eletrônico] : 100 mini papers. -- São Paulo : Arbeit Factory Editora e Comunicação, 2014.
Vários autores. ISBN 978-85-99220-04-7
1. Computação 2. Engenharia de software 3. IBM - Computadores 4. Liderança 5. Mudança 6. Tecnologia da informação.
14-11613 CDD-004
Índices para catálogo sistemático:
1. Transformação e mudança : Liderança : Tecnologia da informação 004
Computadores Híbridos, a próxima fronteira da computação .................................................................................... 10
Como ler em cinquenta anos o que foi escrito hoje? .................................................................................................. 11
A maneira Lean de se pensar ..................................................................................................................................... 12
Então, você quer trabalhar com Arquitetura de TI? ..................................................................................................... 13
Computação Quântica ................................................................................................................................................ 14
O desafio da modernização de sistemas legados ...................................................................................................... 15
Tecnologia para Cidades Inteligentes ......................................................................................................................... 16
Tudo como Serviço ...................................................................................................................................................... 17
O Nevoeiro e o Sapo ................................................................................................................................................... 18
Boas práticas para a elicitação de requisitos ............................................................................................................. 19
O homem que enxergou a forma das coisas .............................................................................................................. 20
Métricas de Software .................................................................................................................................................. 21
Gestão por Competências: é hora do C.H.A. ............................................................................................................. 22
Daily Scrum para todos! .............................................................................................................................................. 23
Como agradar ao cliente que contrata serviços? ....................................................................................................... 24
Especial Centenário da IBM: SAGE, um berço de inovação ...................................................................................... 25
Integrar conhecimentos: o desafio do consultor ......................................................................................................... 26
Especial Centenário da IBM: IBM RAMAC: O início de uma era na computação comercial...................................... 27
A evolução do modelo de entrega de serviços de TI .................................................................................................. 28
Especial Centenário da IBM: IBM 1401, quando os tempos eram outros... ................................................................ 29
A Internet das Coisas .................................................................................................................................................. 30
Especial Centenário da IBM: O Programa Espacial e a Tecnologia da Informação ................................................... 31
Colaboração eficiente em um Planeta Inteligente ....................................................................................................... 32
Especial Centenário da IBM : Enxergando o mundo melhor ...................................................................................... 33
Vivemos em um mundo cada vez mais instrumentado ............................................................................................... 34
Especial Centenário da IBM: Elementar, meu caro Watson ........................................................................................ 35
Impactos da revolução multi-core no desenvolvimento de software .......................................................................... 36
Especial Centenário da IBM: A IBM e a Internet ......................................................................................................... 37
Governança, Risco e Conformidade ........................................................................................................................... 38
Especial Centenário da IBM: IBM Tape: Quebrando barreiras no armazenamento de dados ................................... 39
O novo Bug do Milênio? .............................................................................................................................................. 40
Manutenções de sistemas na velocidade do negócio ................................................................................................ 41
Escalabilidade e Gerenciamento em Cloud Computing ............................................................................................. 42
A evolução da Web na direção dos negócios ............................................................................................................. 43
Agilidade Financeira em TI .......................................................................................................................................... 44
Gestão de Custos de TI ............................................................................................................................................... 45
FCoE, a integração das redes LAN e SAN ................................................................................................................. 46
Poder, muito poder, de processamento ...................................................................................................................... 47
sumário
O Poder da Tecnologia Social ..................................................................................................................................... 48
Meninas e Tecnologia ................................................................................................................................................. 49
Sobre Profetas e Bolas de Cristal ................................................................................................................................ 50
Cidades inteligentes: o trabalho se move para que a vida siga .................................................................................. 51
Tecnologia especial para a inclusão social ................................................................................................................. 52
Agile: você está preparado? ........................................................................................................................................ 53
A Teoria das Inteligências Múltiplas e as Profissões em TI ......................................................................................... 54
Analytics ao alcance dos seus dedos ......................................................................................................................... 55
A importância do processo de RCA ............................................................................................................................ 56
Posso ver os dados? ................................................................................................................................................... 57
Aprender Brincando .................................................................................................................................................... 58
Processamento de áudio em placas gráficas ............................................................................................................. 59
Unicode ♥ דוקינו ☻ Уникод ♫ وكينوي .......................................................................................................................... 60
A verdade é um caminho contínuo .............................................................................................................................. 61
Tudo (que importa) a seu tempo .................................................................................................................................. 62
Computação em Nuvem e Sistemas Embarcados ..................................................................................................... 63
Nanotecnologia — Como Isso Muda Nossas Vidas? ................................................................................................... 64
TI com Sustentabilidade e Eficiência ........................................................................................................................... 65
A estratégia e sua operacionalização ......................................................................................................................... 66
A evolução do NAS ..................................................................................................................................................... 67
Vai para a nuvem ou não vai? ...................................................................................................................................... 68
Profissão: Arquiteto de Negócios ................................................................................................................................ 69
Quatro Horas? ............................................................................................................................................................. 70
Se botar sua reputação na vitrine, ela vai valer mais que R$ 1,99? ............................................................................ 71
O que é Segurança da Informação ............................................................................................................................. 72
A matemática do acaso ............................................................................................................................................... 73
A Origem do Logical Data Warehouse (LDW) ............................................................................................................. 74
Storage & Fractais ....................................................................................................................................................... 75
Social Business versus Social Business Model .......................................................................................................... 76
Método Científico e Trabalho ...................................................................................................................................... 77
Qual é o tamanho do link? ........................................................................................................................................... 78
Bancos de dados NoSQL ........................................................................................................................................... 79
Os desafios da Internet das Coisas ............................................................................................................................ 80
Traga seu dispositivo móvel ........................................................................................................................................ 81
O céu é o limite para a automação inteligente ............................................................................................................ 82
Inteligência em segurança, uma nova arma contra o cyber crime ............................................................................. 83
Tecnologia Transformando Cidades Inteligentes ........................................................................................................ 84
Crowdsourcing: o poder da multidão .......................................................................................................................... 85
TOGAF – O que é e por quê? ....................................................................................................................................... 86
Revele o cliente que está por trás dos dados ............................................................................................................. 87
Singularidade: Você está pronto para viver para sempre? ......................................................................................... 88
Agora eu posso twittar ................................................................................................................................................ 89
O novo consumidor ..................................................................................................................................................... 90
Transformando riscos em oportunidades de negócio ................................................................................................. 91
QoS em redes de acesso em banda larga ................................................................................................................. 92
As máquinas sentem? ................................................................................................................................................. 93
Alinhando TI e TA ........................................................................................................................................................ 94
O “Vale do Grafeno” e a Revolução Tecnológica ........................................................................................................ 95
O tempo não para, mas pode ser melhor aproveitado... ............................................................................................. 96
Ontologias e a Web Semântica ................................................................................................................................... 97
Customização em massa: obtendo uma vantagem competitiva ................................................................................ 98
Software Defined Network: O Futuro das Redes ........................................................................................................ 99
Uma vista privilegiada do planeta Terra ...................................................................................................................... 100
Sorria, você pode estar nas nuvens ............................................................................................................................ 101
IBM Mainframe – 50 anos de Liderança Tecnológica e Transformação ...................................................................... 102
A Interoperabilidade da Internet das Coisas ............................................................................................................... 103
Gerência de Projetos Ágil ou PMBOK®?...................................................................................................................... 104
Sangue, suor e Web: como a World Wide Web foi criada ........................................................................................... 105
Acesso Direto à Memória: vulnerabilidade por projeto? .............................................................................................. 106
Big Data e o nexo das forças ...................................................................................................................................... 107
Desmistificando Capacidade Virtual, Parte I .............................................................................................................. 108
Desmistificando Capacidade Virtual, Parte II ............................................................................................................. 109
Considerações Finais e Agradecimentos ................................................................................................................... 110
10
Technology leadership council Brazil
Por mais de 20 anos a indústria
de TI conseguiu manter válida
a Lei de Moore, dobrando a
capacidade de processamento
dos chips a cada 18 meses,
mas ultimamente tornou-se um
grande desafio manter tal ritmo,
o que pode significar uma
ameaça para o mercado, que
segue demandando por mais
capacidade.
A atual arquietura de chips atingiu sua limitação física,
considerando-se a curva de desempenho versus a dissipacão de
calor gerada e a energia necessária para o seu funcionamento.
Não é mais possível continuar entregando mais capacidade sem
uma mudança de conceito e de arquitetura. Já foram tentadas
algumas soluções, como por exemplo a fabricação de chips
multicore, mas ainda não se resolveu esse impasse. Por outro lado,
o mercado de TI continua precisando de mais capacidade para
atender às novas demandas de negócio, através de aplicações
cada vez mais complexas, as quais requerem computadores
cada vez mais potentes.
A indústria está buscando alternativas para endereçar essa
questão. Uma consiste no aumento do nível de paralelismo entre
os diversos núcleos de processamento de um mesmo chip, o
que requer novos conceitos de programação e redesenho dos
atuais sistemas para que possam explorar essa arquitetura de
processadores. Outra alternativa consiste na implementação de
um novo conceito de computadores, baseado numa arquitetura
híbrida de processadores.
Computadores híbridos são compostos por distintos tipos
de processadores, fortemente acoplados sob um sistema
integrado de controle e gestão, que possibilita o processamento
de cargas complexas e variadas. A Intel e AMD, por exemplo,
estão trabalhando em chips multicore nos quais os núcleos de
processamento são distintos entre si, para possibilitar ganhos
de desempenho sem bater no teto da dissipação de calor.
Mas ainda não há previsão de liberação desses novos chips
para o mercado.
A IBM está trabalhando em um novo servidor da plataforma
z/Series, o qual conterá processadores das suas tradicionais
famílias (Mainframe, POWER7 e x86) dispostos numa única
plataforma computacional, gerenciada de forma centralizada e
integrada. No passado recente a IBM disponibilizou um servidor
z/Series integrado com processadores Cell para atender uma
necessidade específica da Hoplon, empresa brasileira que
atua no mercado de infojogos. Essa experiência foi muito bem
sucedida e possibilitou o avanço na direção do conceito de
servidor híbrido. Com essa nova plataforma, que está em
fase final de desenvolvimento, a IBM pretende prover uma
solução de grande desempenho e escalabilidade, capaz de
atender às demandas por soluções que requerem poder de
processamento com características mistas entre as tradicionais
aplicações comerciais e aplicações de computação intensiva
(High Performance Computing).
Com os computadores híbridos pretende-se ultrapassar as
limitações impostas pelas atuais arquiteturas e também resolver
os problemas gerados pela forte dependência existente entre
as aplicações e a plataforma computacional para as quais
foram originalmente projetadas. Esse novo tipo de computador
funcionará como se fossem vários servidores lógicos virtualizados
num único servidor físico, com uma camada de gerência integrada,
capaz de distribuir partes de uma aplicação para o processador
que lhe for mais propício, dando ao seu usuário as facilidades
e os beneficios de uma plataforma fisicamente centralizada,
mas logicamente distribuída, endereçando os atuais desafios
do mundo descentralizado relativos à integração de aplicações,
segurança, monitoração, distribuição de carga e contabilidade
do uso de recursos, entre outros.
Simplificação da TI, redução do número de servidores instalados
(e de seus requisitos de espaço, energia e refrigeração), maior
capacidade de gerência de ponta-a-ponta e, consequentemente,
redução do custo total de propriedade. Essas são as propostas
de valor das arquiteturas híbridas.
Estamos na iminência de uma nova plataforma computacional,
a qual poderá representar uma mudança de paradigma na
indústria de TI e possibilitar novas soluções de negócios, abrindo
horizontes para as empresas e para toda a sociedade.
Para saber mais:
http://www.redbooks.ibm.com/abstracts/redp4409.html
compuTadores híBridos, a próxima fronTeira da compuTação
Daniel Raisch
11
Technology leadership council Brazil Technology leadership council Brazil
como ler em cinquenTa anos o que foi escriTo hoje?Roberto F. Salomon
Faz relativamente pouco tempo que começamos a usar arquivos
em mídia eletrônica para armazenar documentos. Além do papel,
já usamos diversos outros suportes para os nossos documentos
como madeira, pedra, barro e cera. Ao usar esses suportes
nossos antepassados os tornavam indissociáveis do documento
propriamente dito.
Com a chegada da mídia eletrônica, conseguimos separar, pela
primeira vez, o suporte de um documento de seu conteúdo. Assim,
os documentos se tornaram “virtuais”, sendo armazenados em
arquivos digitais gerados por algum aplicativo. Graças ao suporte
digital, uma cópia de um documento é idêntica ao seu original.
Seria o melhor dos mundos se não houvesse a questão da
recuperação e leitura posterior desses documentos. Trabalhamos
bem a analogia de uso de softwares para a produção de
documentos: uma folha de papel em branco exibida na tela
na mesma posição em que estaria uma folha em uma máquina
de escrever.
No entanto, não houve, até recentemente, uma discussão
adequada sobre o formato de armazenamento desses
documentos, resultando em problemas de compatibilidade
com os quais convivemos até hoje. A vinculação dos formatos
aos softwares que os criaram tornou-se uma barreira à adoção
de novas tecnologias e soluções.
O problema gerado pela ausência de padronização no
armazenamento de documentos é apenas a parte mais visível
da questão. A falta de padronização na comunicação entre
os componentes de software que adquirimos é tão grande
quanto o número de fornecedores existentes no mercado.
Enquanto a adoção de soluções que suportem padrões abertos
e publicados faz sentido econômico para a iniciativa privada,
no setor público essa adoção é vital para a preservação das
informações do Estado.
A preocupação com o uso de padrões abertos em documentos
oficiais levou a União Européia a publicar uma definição do que
é um padrão aberto. Há várias, mas todas concordam que um
padrão aberto deve:
• ser mantido por organização sem fins lucrativos, através
de um processo aberto de decisão:
• ser publicado e acessível sem custo, ou a um custo
meramente nominal;
• garantir o acesso gratuito, sem o pagamento de royalties,
a toda propriedade intelectual do padrão.
Vários padrões se adequam a essa definição comum, dentre
eles o ODF – OpenDocument Format, que define o formato de
armazenamento para documentos eletrônicos textuais.
No Brasil, o Governo Federal já reconheceu a importância da
adoção de padrões que permitam a integração aberta entre os
seus órgãos e os demais poderes e esferas da administração
pública. A edição do e-PING – Padrões de Interoperabilidade
de Governo Eletrônico, demonstra que o Governo Federal já
entende ser necessário estabelecer quais os padrões que
serão usados para a comunicação com a sociedade. Essa
definição deve ser o mais independente possível de pressões
econômicas de grupos de interesse. Iniciativas como a do e-PING
são estratégicas e necessárias.
Há hoje um consenso sobre sua importância, demonstrado
por eventos como a “Government Interoperability Framework
Global Meeting 2010”, promovida pelo PNUD (Programa das
Nações Unidas para o Desenvolvimento) realizada no Rio em
maio de 2010.
Os governantes precisam ter claro que em um mundo cada
vez mais digital o Estado não pode se furtar de estabelecer
o uso de padrões abertos, o que comprometeria seriamente
a capacidade de colaboração entre órgãos governamentais
e entre estes e a sociedade civil, criando obstáculos para a
preservação de investimentos e da memória da nação.
Para saber mais:
http://www.odfalliance.org
12
Technology leadership council Brazil
a maneira lean de se pensar
Diego Augusto Rodrigues Gomes
Vivenciamos um conjunto de mudanças de pensamento em
várias esferas do conhecimento. Na economia, muitos órgãos e
empresas tentam diminuir suas despesas. No contexto do meio
ambiente, temos acordos entre países para a redução de gases
de forma a estancar o aumento da temperatura global. Além
disso, estamos sob crescente incentivo à economia de água,
energia elétrica e à diminuição da poluição. Também estamos
frequentemente criando mecanismos inteligentes para o uso
doméstico diário. E o que é comum a tudo isso?
O esforço na redução do consumo de recursos e o seu melhor
aproveitamento. Com base na cultura e nos princípios de
gerenciamento adaptados do Sistema Toyota de Produção,
que surgiu no Japão como alternativa ao sistema de produção
em massa, foi criado o termo Lean (enxuto) para descrever
os sistemas de produção que buscam fornecer, a um custo
reduzido, valor aos clientes por meio da melhoria dos fluxos
entre processos.
Ao eliminar-se o desperdício em todos os fluxos que geram
valor, criam-se processos que demandam menos esforço,
menos espaço, menos capital e que requerem menos tempo
para a criação de produtos e serviços. Tudo isso com menos
defeitos e com maior qualidade quando comparados aos
processos tradicionais.
Os cinco princípios norteadores do pensamento Lean afirmam
que é imprescindível:
1. definir o que é valor para o cliente e procurar satisfazê-lo;
2. definir o fluxo de valor de maneira a eliminar processos que não agreguem ao produto final (eliminar desperdícios);
3. dar fluidez aos processos, criando um fluxo contínuo de produção, atendendo rapidamente às necessidades do cliente (flexibilidade);
4. não mais empurrar o produto para o consumidor, e sim, fazer com que ele o retire de acordo com sua necessidade;
5. buscar a excelência e perfeição (qualidade e melhoria contínua).
A melhoria dos processos se dá não apenas pela redução,
mas pela eliminação de desperdícios, categorizados em sete
tipos: superprodução (produção além da demanda); espera
(períodos de inatividade devido à espera pelo próximo passo
da produção); transporte (movimento de partes desnecessárias
ao processamento); excesso de processamento (retrabalho);
deslocamento (pessoas ou equipamentos se movimentando
mais que o necessário para a execução de um procedimento);
inventário (estoque de insumos que não estão diretamente ligados
à necessidade atual); defeitos (perda de unidades de produção
e de tempo gasto para construí-las).
A busca pela qualidade segue duas estratégias: treinar e
desenvolver a força de trabalho e tornar os processos estáveis
e capazes de atender às necessidades do cliente. Pessoas
motivadas e que abraçam a cultura e filosofia da empresa são
o coração desse modelo. Cada um é responsável por melhorar
o fluxo de processos da instituição, sugerindo soluções e novas
abordagens, mesmo que não sejam responsáveis diretos por isso.
A flexibilidade nesse modelo é fruto do trabalho de profissionais
com múltiplas habilidades, os quais não só conhecem a sua
atividade e sabem operar suas ferramentas, mas também sabem
executar as atividades de outros profissionais, dando, assim,
maior fluidez ao fluxo de atividades que compõem a execução
dos processos.
Esse modelo de pensamento tem sido aplicado com sucesso em
diversos ramos de atividades, tais como manufatura, distribuição,
gestão da cadeia de suprimentos, desenvolvimento de produtos,
engenharia, entre outros. Mais recentemente, inclusive, tem
sido aplicado no processo de desenvolvimento de software.
Em síntese, falar de Lean é falar de maneiras coerentes de se
eliminar aquilo que não é necessário. Significa romper com o
pensamento “quanto mais, melhor”, agregar mais valor com
menos trabalho, reduzir custos, otimizar os tempos de produção
e entrega e melhorar a qualidade dos produtos e serviços.
Em outras palavras, é eliminar tudo aquilo que não agrega valor
e que não é importante ao resultado final. Adotar a filosofia Lean
como uma nova maneira de pensar e agir pode ser um bom
começo para tornar nosso planeta mais inteligente.
Para saber mais:
http://www.lean.org
http://www.lean.org.br
Livro: O Modelo Toyota, Jeffrey K. Liker (2005)
http://agilemanifesto.org/
13
Technology leadership council Brazil Technology leadership council Brazil
enTão, você quer TraBalhar com arquiTeTura de Ti?Cíntia Barcelos
Eu ainda lembro quando, há alguns anos, falei para meu pai
que iria mudar de função na empresa em que trabalho há
16 anos. Mencionei que tinha conseguido uma excelente
oportunidade em uma nova área como arquiteta de TI. Ele
ficou feliz, mas confuso (apesar de ter um doutorado em Física
Teórica), e me disse: “Mas minha filha, você não se formou em
Engenharia?”. Ele até já tinha aceitado eu ter sido contratada
como analista de sistemas, mas virar uma arquiteta era um
pouco estranho para ele.
Afinal, o que faz um arquiteto de TI? Ele projeta soluções baseadas
em Tecnologia da Informação para resolver problemas de negócio,
as quais comumente integram diversos sistemas e se utilizam de
múltiplas tecnologias, serviços e produtos. Esse profissional, que
tem um amplo conhecimento técnico e experiência em diversas
disciplinas, consegue identificar e avaliar as possibilidades até
chegar à solução que melhor vai atender às necessidades do
negócio. Por isso é um profissional que deve conhecer bem a
indústria e o negócio em que trabalha e, a partir desses contextos,
fazer a conexão com a área de tecnologia.
Ao projetar uma solução, o arquiteto de TI precisa entender bem
o ambiente e os padrões estabelecidos na empresa no qual a
solução será inserida. Na sua caixa de ferramentas estão, além da
ampla experiência, metodologias de projeto de sistemas, técnicas
de modelagem, conhecimentos de padrões de arquitetura e
habilidades de consultoria e gerência de projetos.
Apesar de possuir conhecimento e ferramentas, o arquiteto
de TI nunca cria uma solução sozinho, sempre trabalha em
conjunto com especialistas que possuem conhecimento profundo
em cada um dos componentes da solução. E é nesse ponto
que entram outras qualidades necessárias ao arquiteto de TI:
liderança, comunicação, trabalho em equipe e negociação.
São principalmente esses conhecimentos não-técnicos que
diferenciam esse profissional dos demais.
Outra forma de entender o que um arquiteto de TI faz é dizer o
que ele não faz. Ele não é um “super especialista” que conhece
profundamente todas as tecnologias, produtos ou serviços,
mas tem bastante experiência e um bom conhecimento sobre
como essas coisas funcionam e como podem ser combinadas.
O mais importante da sua atividade é saber enxergar cada
tecnologia ou componente da solução como uma “caixa preta”,
com suas entradas e saídas, entendendo o que cada “caixa”
é capaz de gerar, muito mais do que saber em detalhes o que
acontece lá dentro. Ele não é um gerente de projeto, mas precisa
ter conhecimentos básicos dessa disciplina e, geralmente,
torna-se o braço direito desse outro profissional, pois precisa
entender e orientar a implementação da solução que projetou.
Ele também não é um consultor, mas precisa conhecer técnicas
e metodologias de consultoria.
E nem preciso dizer que o arquiteto de TI não é o mesmo que
um super desenvolvedor ou um analista de suporte sênior.
A profissão de arquiteto de TI está em alta e a demanda por
esse profissional segue aumentando. No mercado já existe
certificação nessa profissão, oferecidas pelo OpenGroup, IASA
e Zachman, entre outras. Ao me tornar uma arquiteta de TI,
encontrei a função e a carreira que sempre almejei. Nunca quis
largar a área técnica, porque é minha vocação e, de certa forma,
meu grande diferencial. Ao mesmo tempo, como arquiteta de
TI posso exercer funções de liderança, entender do negócio e
da indústria. Ainda não tenho muita certeza se meu pai entende
exatamente o que eu faço, mas tudo bem, eu também nunca
consegui entender muito bem as publicações da pesquisa dele.
Acho que vou dar esse artigo para ele ler...
Para saber mais:
http://www.iasahome.org/web/home/certification
14
Technology leadership council Brazil
compuTação quânTica
Conrado Brocco Tramontini
A computação quântica (CQ) consiste no processamento de
dados representados por partículas subatômicas e seus estados.
Mas antes de olhar diretamente para a CQ, é necessário observar
um pouco dos princípios da mecânica quântica, a base de
diversos ramos da física e da química, cujos estudos começaram
no início do Século XX, com os trabalhos do alemão Max Planck
e do dinamarquês Niels Bohr, premiados com o Nobel de Física
em 1918 e 1927, respectivamente.
Os conceitos da Mecânica Quântica são tão incomuns que
o próprio Einstein não aceitou essa teoria como completa.
Niels Bohr já advertira, em 1927, que “qualquer um que não se
chocasse com a teoria quântica não a compreenderia”. Segundo
a Mecânica Quântica o estado de um sistema
físico é o conjunto de todas as informações que
podem ser extraídas desse sistema ao se efetuar
alguma medida, incluindo a soma desses estados.
É exatamente isso que você entendeu, o estado
de um sistema físico é o conjunto de todos
os seus possíveis estados. Esse fenômeno
é chamado de “superposição” e é uma das
bases para a CQ.
Um experimento teórico conhecido como “o gato
de Schröndinger”, demonstra a estranha natureza
das superposições quânticas, nele um suposto
gato está preso a uma caixa, com um frasco de
veneno que será liberado caso ocorra uma reação em uma
partícula quântica. O gato tem 50% de chance de estar vivo ou
morto. Já para a mecânica quântica, entende-se que devido
a superposição de estados da partícula, o gato está vivo e
morto ao mesmo tempo, esperando apenas que a influência do
observador defina seu estado. Aqui aparece outra importante
característica, o Princípio da Incerteza de Heisenberg, que diz
que não podemos determinar simultaneamente, e com precisão,
a posição e o momento de uma partícula. Para livrar o bichano
dessa situação e saber o que aconteceu, deve-se abrir a caixa
e espiar. Nesse momento é feito uma medida sobre o estado
do sistema, que colapsa em um único estado (vivo ou morto).
Até que isso ocorra os estados ficam superpostos.
Se você ficou meio chocado com o que leu até aqui, significa
que estamos no caminho certo...
Enquanto um computador clássico utiliza pulsos elétricos para
representar o estado dos bits com valores 0 ou 1, a CQ utiliza
partículas e propriedades quânticas superpostas, como átomos
excitados ou não ao mesmo tempo, fótons que podem estar
simultaneamente em dois lugares, elétrons e pósitrons ou prótons
e neutrons com estados sobrepostos.
Uma molécula de um único transistor pode conter milhares
de prótons e nêutrons que podem ser usados como qubits.
A superposição torna possível representar muito mais dados,
aumentando a capacidade dos canais de comunicação
da informação, permitindo à CQ efetuar processamentos
exponencialmente mais velozes do que a computação tradicional
porque, ao invés de processar um dado por vez, irá “raciocinar”
em bloco, processando vários dados ao mesmo
tempo, como se existisse um só.
A Google demonstrou em dez/2009, no
controverso chip quântico desenvolvido pela
D-wave, um sistema de busca em imagens que,
por usar superposição, se mostrou mais rápido do
que os atuais. É como se você pudesse procurar
suas meias em todas as gavetas, de uma só vez.
Outra importante aplicação é a criptografia
quântica na qual um servidor emaranha o qubit
B ao qubit A e os envia respectivamente para as
máquinas A e B e em seguida, o que a máquina
A escreve em seus qubits é replicado para os
qubits da máquina B, sem oferecer risco de ser interceptado
uma vez que não se utiliza de nenhum meio ou contato físico
mas sim de um outro fenômeno chamado, não por acaso, de
teletransporte.
Os sistemas quânticos ainda apresentam dificuldades para serem
controlados pois se mostram sensíveis às mínimas interferências
e também porque o tempo em que se consegue controlar as
partículas ainda é muito pequeno. No entanto, a despeito desses
desafios, existe um consenso de que o desenvolvimento dessa
tecnologia vem ocorrendo mais rápido do que se imaginava
inicialmente. Com a computação quântica, podemos dizer que
a computação clássica está viva e morta ao mesmo tempo?
Para saber mais:
http://www.fisica.net/computacaoquantica/
http://qubit.lncc.br/index.html
15
Technology leadership council Brazil Technology leadership council Brazil
o desafio da modernização de sisTemas legados
Victor Amano Izawa
No cenário atual, a maioria das empresas
precisa modernizar seus sistemas para
atender suas necessidades de negócio.
Essas atualizações nem sempre são simples
e muitas vezes necessitam implementar grandes
mudanças, afetando partes desses sistemas que podem ser
essenciais ao negócio.
A modernização pode ser necessária para o cumprimento de
leis regulatórias ou mesmo para cortar gastos e otimizar os
processos de negócio, com os quais as empresas visam manter-
se competitivas num mercado cada vez mais agressivo.
Quando se trata de modernização de sistemas legados, o custo
é a principal causa que impede as empresas de mudarem seus
sistemas. E mesmo que esses gastos sejam considerados como
um investimento nos negócios da empresa, existe ainda um outro
fator crítico, relacionado ao risco do processo de modernização,
o que contribui para desencorajar muitas ideias ou hipóteses
de modernização.
Nenhuma empresa quer arriscar seus negócios e ficar meses
aguardando a finalização do processo de modernização. Mas
isso significa que as empresas devem sacrificar seus negócios
e se tornarem menos competitivas? Como contornar isso de
maneira a minimizar esses riscos?
Uma solução adotada por várias empresas é modernizar
sua infraestrutura de sistemas utilizando-se de arquiteturas
distribuídas (clusters de servidores de alto desempenho). Sendo
assim, as empresas podem manter seus sistemas legados
com desempenho e capacidade elevados, fazendo uso de
computadores com alto poder de processamento, discos rígidos
de rápida resposta para grandes volumes de dados e redes
de fibra óptica com alta capacidade de transferência de dados,
por exemplo.
Quando as empresas decidem adotar uma estratégia e uma
política de modernização em seus sistemas, alguns fatores
devem ser considerados, tais como a adoção de um modelo de
processo de desenvolvimento de software e o gerenciamento
de escopo e risco.
Inicialmente deve-se avaliar se existe algum modelo de processo
de desenvolvimento de software vigente que possa atender às
necessidades da empresa ou se será adotado um novo modelo,
como o Open Unified Process (OpenUP) ou Rational Unified
Process (RUP), para que a modernização seja feita de maneira
organizada e otimizada.
Como muitas necessidades são apresentadas como melhorias no
sistema, é importante que cada uma seja analisada de maneira
que o escopo definido não seja muito alterado. A inclusão de
uma simples melhoria pode aumentar bastante a complexidade
da modernização e, consequentemente, impactar nas demais
partes do sistema. E isso significa considerar novos riscos e
aumentar o custo de desenvolvimento. Portanto, gerenciar riscos
é muito importante para que determinadas modificações não
impliquem em complicações futuras.
O desafio de manter-se atualizado pode ser enfrentado desde
que se saiba gerenciar os riscos, os custos e o processo como
um todo adequadamente. No mercado atual, uma empresa deve
demonstrar competência para sempre inovar e estar à frente da
concorrência, enfrentando com sabedoria os novos desafios.
Para saber mais:
Livros: Legacy Systems: Transformation Strategies (2002) – William M. Ulrich; Prentice Hall PTR
Modernizing legacy systems: Software technologies, engineering processes, and business practices (2003) – Robert Seacord, Daniel Plakosh, Grace Lewis; Addison-Wesley
16
Technology leadership council Brazil
Tecnologia para cidades inTeligenTes
José Carlos Duarte Gonçalves
Há algum tempo falamos que a globalização está deixando o
mundo cada vez mais plano, com menos barreiras geográficas.
Mas estamos começando a perceber um fenômeno ainda maior:
o planeta também está se tornando mais inteligente.
Quando comecei minha carreira em TI, há 33 anos, a memória
de um computador IBM S/370 era capaz de armazenar até
64Kbytes de informação. Atualmente qualquer telefone celular
possui milhares de vezes essa quantidade de memória.
O alcance da tecnologia também deu um enorme salto ao longo
desse tempo. Hoje já existe mais de quatro bilhões de usuários
de telefonia celular no mundo, o que representa quase 70% da
população mundial. Até o final de 2010, estima-se que haverá
mais de um bilhão de transistores para cada ser humano, cada
um custando um décimo de milionésimo de centavo de dólar.
Estima-se também que haverá mais de 30 bilhões de etiquetas
de RFID (identificação por rádio frequência) em circulação, além
de dois bilhões de pessoas conectadas à Internet.
O que isso tudo significa? Que pela primeira vez na história, as
infraestruturas digitais e físicas do mundo estão convergindo
e praticamente qualquer coisa pode se tornar digitalmente
conectada a um baixo custo. O mundo está caminhando para
ter um trilhão de coisas conectadas – a “Internet das Coisas”
feita de carros, geladeiras, prédios, rodovias, etc.
Mas para termos um mundo realmente mais inteligente temos
que cada vez mais nos preocupar com o meio ambiente, a
sustentabilidade do planeta e o não esgotamento dos seus
recursos naturais. Temos hoje a oportunidade de usar a tecnologia
para resolver ou minimizar os grandes problemas da sociedade,
tais como congestionamentos de trânsito, conservação de água
potável, distribuição de alimentos e energia, serviços de saúde,
entre outros.
Uma das questões mais críticas é o transporte, com seus
engarrafamentos caóticos nas grandes cidades. Só em São
Paulo, o custo do congestionamento, levando-se em conta
o tempo ocioso das pessoas nos horários de trânsito mais
intenso, passa de R$ 27 bilhões por ano. Se forem considerados
também os gastos referentes ao consumo de combustível e o
impacto dos poluentes na saúde da população, teremos um
custo adicional anual de R$ 7 bilhões.
Como resolver? Cidades como Estocolmo, Cingapura, Londres e
Brisbane já estão buscando soluções inteligentes para gerenciar
melhor o trânsito e reduzir a poluição. As iniciativas vão desde
a previsão do tráfego aos sistemas de pedágio inteligentes e
dinâmicos. Em Estocolmo, com a implementação do pedágio
urbano, o congestionamento já foi reduzido em 25%, a redução da
poluição chegou a 40% e o uso de transporte público aumentou
em 40 mil pessoas/dia.
Os líderes de governo e das instituições, precisam identificar as
oportunidades certas e obter os investimentos necessários por
meio de incentivos e programas de apoio. É importante ressaltar
que tornar-se mais inteligente não se aplica apenas às grandes
corporações, mas também às empresas de pequeno e médio
porte que são os motores de nosso crescimento econômico.
Cada vez mais, seremos medidos pela maneira como aplicamos
nosso conhecimento e nossa capacidade para resolver os
grandes problemas. É um desafio que devemos entender e
receber de braços abertos, de maneira a buscar resolver os
problemas e tornar as cidades mais inteligentes.
Para saber mais:
http://www.ibm.com/innovation/us/thesmartercity
http://cities.media.mit.edu/
http://www.smartcities.info/
17
Technology leadership council Brazil Technology leadership council Brazil
Tudo como serviço
Sergio Varga
A evolução e maturidade das tecnologias de virtualização, os
avanços de desempenho e capacidade dos servidores e redes,
e o aumento de aplicações compartilhadas estão permitindo
às empresas disponibilizarem uma vasta gama de soluções no
modelo “as a Service” (aaS). Aplicações que até há pouco tempo
atrás não se imaginava que poderiam ser implementadas nesse
modelo agora já estão disponíveis. Como um exemplo, no final
de 2009 a IBM lançou no mercado o TivoliLive, um ambiente
de monitoração disponível no modelo “Monitoring as a Service”.
Noutro exemplo temos as já conhecidas Box.net e Salesforce.com,
que integraram o modelo de armazenamento de documentos
de uma com o de gestão de relacionamento com clientes da
outra, oferecendo novos serviços
combinados no modelo “Software
as a Service” (SaaS).
Communication as a Service
(CaaS), Infrastructure as a Service
(IaaS), Platform as a Service
(PaaS), Service Management as
a Service (SMaaS) são alguns
outros exemplos desse modelo de
serviços que tem crescido muito
nos últimos anos. Esse mercado,
segundo a previsão do IDC, saltará
dos US$ 17.4 bilhões em 2009 para
mais de US$ 44 bilhões em 2013. Outra pesquisa, da Saugatuck
Technologies, afirma que ao fim de 2012, 70% das pequenas
e médias empresas e 60% das grandes terão pelo menos uma
aplicação SaaS, ou seja, esse modelo não será restrito a um
determinado tamanho de empresa.
O primeiro grande grupo de aplicações a entrar no modelo “as a
Service” foram as de CRM, Recursos Humanos e Procurement,
ou seja, principalmente aquelas voltadas para usuários finais.
A partir de então, outras começaram a serem portadas para
esse modelo e hoje temos uma enorme lista de aplicações, até
mesmo aquelas desenvolvidas localmente. Outro grande uso
das soluções aaS é para projetos-piloto e análise de aplicações
a serem implementadas na empresa.
Um fator importantíssimo para a explosão dessas aplicações é
o cloud computing, que está se tornando uma realidade. Várias
empresas já estão disponibilizando esse tipo de infraestrutura,
como a Amazon que em 2006 lançou o Elastic Compute Cloud,
e a IBM que em 2009 lançou o Cloudburst.
No entanto, para a disseminação do modelo “as a Service”, existem
quatro grandes desafios, identificados em outra pesquisa feita pelo
IDC ainda em 2008: segurança, desempenho, disponibilidade e
integração. Aumentar a segurança das soluções implementadas
através da Internet e garantir a privacidade das informações
é a maior prioridade para empresas que proveem aplicações
no modelo “as a Service”. A segunda maior preocupação é
disponibilizar aplicações com um
desempenho aceitável e para isso,
além de servidores de grande
capacidade, também podem ser
necessários vários pontos de
presença espalhados pelo mundo
para minimizar a latência de rede.
Para ter alta disponibilidade nesses
ambientes são necessários planos
de continuidade e monitoração
ininterrupta. Outro desafio é habi-
litar soluções que sejam fáceis de
ser integrar com os sistemas dos
clientes, eventualmente em nuvens diferentes.
Apesar dos desafios, a facilidade de implementação, o baixo
custo sugerido e a inexistência de investimentos em hardware
e software são grandes atrativos para os clientes adotarem
aplicações oferecidas nesse modelo.
O que provavelmente veremos num futuro próximo? As empresas
de TI batalhando nesse nicho de mercado e os consumidores
deixando de investir em ativos de TI e usando soluções de
negócio como serviços.
Para saber mais:
http://blogs.idc.com/ie/?p=543
www.ibm.com/services/us/gts/flash/tivoli_live.swf
http://www.saugatech.com/
18
Technology leadership council Brazil
o nevoeiro e o sapo
Wilson E. Cruz
Um dos fatos mais perturbadores de nosso tempo é o excesso
de estímulos que hoje passam por nossos olhos e ouvidos e, com
alguma sorte, invadem nosso cérebro. A todo momento aparece
alguém dizendo: “É muita informação! Não dá prá gerenciar!”.
O fenômeno, muito novo, vertiginosamente crescente, e já no
limiar da sanidade, tem perturbado, tanto no âmbito pessoal
quanto no profissional, a maioria das pessoas “conectadas”.
Para me ajudar no diagnóstico da situação e abrir a porta para
alguns temas de reflexão, uso aqui Dee Hock, fundador do
conceito que define a Organização VISA, e seu fantástico livro
“Nascimento da Era Caórdica”: “Com o tempo, os dados vão se
transformando em informações, as informações em conhecimento,
o conhecimento em compreensão
e, depois de bastante tempo
(...) a compreensão pode se
transformar em sabedoria.
(...) As sociedades nativas (...)
tiveram tempo para desenvolver
a compreensão e a sabedoria.”.
Perceba que a palavra “tempo”
aparece três vezes.
Aproveitando o quinto aniversário
do Mini Paper Series, e sua
tradição como instrumento de
divulgação, arrisco algumas
questões e ideias que talvez
tragam alguma luz aos que buscam direção no meio da névoa.
Comecemos pelas questões:
• Quantos Mini Papers você já leu? E, mais importante, em
quantos deles você buscou a informação do quadrinho
chamado “Para saber mais”?
• Por que razão o resultado de suas pesquisas, naqueles
sites famosos, saem naquela ordem, mesmo que todas as
cem primeiras respostas tenham 100% de aderência ao
seu argumento de pesquisa?
• E, finalmente, o que faz um sapo quando está no meio de
um nevoeiro?
Se suas respostas não lhe trouxeram a sensação de estar apenas
arranhando a superfície dos assuntos mais importantes de sua
vida, não perca tempo com o resto deste artigo. Vá para o próximo
assunto, e para o próximo. Se, por outro lado, as respostas
deixaram você um pouco incomodado ou ressabiado, vale a
pena refletir sobre alguns pontos (refletir, não necessariamente
concordar):
• Saia da armadilha de que “o mais acessado é o melhor”:
em qualquer site da moda, aparece no topo da lista de
recomendações a música mais baixada, a notícia mais lida,
o vídeo mais assistido. Quem garante que a quantidade
(sobretudo a quantidade gerada por outros) lhe garante
qualidade?
• Crie, cultive e conserve a sua lista de fontes, baseada em
seu sistema de valores e preferências. Você paga suas
contas, portanto não é escravo da
"enciclopédia universal” dos outros.
• Preste atenção, e, preferen-
cialmente, formalize suas re-
gras e critérios de mérito. O que
lhe é bom? O que faz diferença
para você?
• Reserve tempo para discutir.
Já foi dito aqui, mas vale
repetir que no final da frenética
sequência que vai do ruído
à sabedoria, a discussão é o
filtro final.
• E, finalmente, desacelere. Pre-me-di-ta-da-men-te. Cal-
cu-la-da-men-te. Perceba que bem perto do solo a névoa
é menor, e dê pequenos pulos, mais curtos e certeiros,
gastando mais tempo no solo, para olhar em volta e avaliar
o mundo ao redor.
Mas no meio disso, como ficam os aniversariantes, o TLC-BR
(seis anos!) e o Mini Paper Series (cinco anos)? Eles podem ser
disseminadores de informação e conhecimento útil, o que já é
bastante neste nevoeiro denso e baixo. Mas eu torço por mais.
Eu torço por vê-los como a “sociedade nativa” de Dee Hock,
buscando o pensamento, a reflexão, e com isso a compreensão
e a sabedoria.
Para saber mais:
http://www.onevoeiroeosapo.blog.br
HOCK, Dee – “Nascimento da Era Caórdica” – São Paulo: Editora Cultrix, 1999
19
Technology leadership council Brazil Technology leadership council Brazil
Boas práTicas para a eliciTação de requisiTos
Cássio Campos Silva
A atividade de elicitação de requisitos é uma das mais importantes
práticas da engenharia de software. Através dela, busca-se o
entendimento das necessidades do usuário e dos requisitos
de negócio, de forma a endereçá-los posteriormente através
de uma solução tecnológica.
Algumas literaturas adotam o termo elicitação, ao invés de
levantamento, pois essa prática não trata simplesmente o
levantamento de requisitos, mas também da identificação dos
fatos que os compõem e os problemas a serem solucionados. Por
ser uma atividade interpessoal, essa prática é muito dependente
da capacidade de entendimento do analista e da habilidade do
usuário em expressar as suas necessidades.
Em uma pesquisa realizada pelo Standish Group foram mapeados
cinco fatores críticos para o sucesso de um projeto: Envolvimento
do Usuário; Suporte Gerencial Executivo; Descrições claras dos
requisitos; Planejamento adequado; Expectativas realísticas.
Repare que os fatores grifados são aqueles diretamente
relacionados aos requisitos.
Considerando-se a complexidade na execução das atividades
de elicitação de requisitos e a dependência do relacionamento
entre os envolvidos, algumas boas práticas devem ser adotadas
pelos analistas de forma a facilitar o processo:
Preparação: Prepare-se previamente e de forma adequada para
as atividades planejadas, as quais são geralmente realizadas
através de entrevistas, questionários, brainstorms e workshops.
Stakeholders: Mapeie (com antecedência) quem serão os
participantes do processo, quais os seus papéis no projeto e
na organização e quais são os seus níveis de conhecimento
e influência. É imprescindível que as pessoas corretas sejam
envolvidas o quanto antes.
Postura: Busque sempre a efetividade nas comunicações, assim
como procure demonstrar ponderação durante as situações
de conflito.
Entendimento: Procure focar no entendimento do problema e
evitar conclusões precipitadas. Nesse primeiro momento o mais
importante é saber escutar.
Experiências passadas: Utilize de forma positiva as experiências
vividas anteriormente para ajudar a melhor compreender o
problema. Evite considerar que o problema atual é igual a algum
outro que tenha sido resolvido em um cliente ou projeto passado.
Documentação: descreva o problema de forma clara
e objetiva. Em caso de dúvidas, consulte o cliente e
evite inferências. Procure usar exemplos citados pelos
stakeholders. A adoção de diagramas e figuras sempre
ajuda na documentação e entendimento dos requisitos.
A criação de protótipos também contribui para o entendimento
comum da solução proposta.
Validação: Faça com que os stakeholders validem a documentação,
verificando o entendimento do problema e as melhorias desejadas
e eventualmente façam solicitações de mudanças.
Ao final do processo deverá ser possível demonstrar de maneira
documental o entendimento do problema, as necessidades
do cliente e as oportunidades de melhorias. Isso delimitará
o escopo do projeto e deverá nortear o desenho da solução,
assim como o planejamento do projeto.
A mensuração do tamanho, complexidade e riscos de um projeto
dependerá da qualidade e coerência dos requisitos. É crucial que
essa atividade seja executada de forma criteriosa e detalhada,
pois qualquer falha nesse momento poderá gerar projetos mal
sucedidos, perdas financeiras e clientes insatisfeitos.
Para saber mais:
http://en.wikipedia.org/wiki/Requirements_elicitation
http://www.volere.co.uk
Livro: Requirements Engineering 2nd Edition - Ken Jackson
20
Technology leadership council Brazil
o homem que enxergou a forma das coisas
Fábio Gandour e Kiran Mantripragada
Benoît Mandelbrot faleceu no dia 14 de outubro de 2010. Poderia
ser apenas mais um nome exótico da ciência mas ele foi bem
mais do que isso. Filho de poloneses com ascendência judaica,
Mandelbrot nasceu em Varsóvia, em 1924, no seio de uma família
com forte tradição acadêmica. Estudou inicialmente na França
e depois nos Estados Unidos. Em 1958, começou a trabalhar
como cientista da IBM T.J. Watson Research Lab, onde chegou
aos títulos de IBM Fellow e Cientista Emérito.
Benoît Mandelbrot foi o matemático que melhor entendeu e
divulgou uma nova formulação
para representar os fenômenos
da natureza. Seu entendimento
levou à criação da palavra “fractal”,
inspirada no Latim fractus, que
significa fraturado, quebrado.
Ele afirmava que a natureza é
regida pela Geometria Fractal,
pois a Geometria Euclidiana não
conseguia descrever formas
naturais mais complexas, como
nuvens, árvores, o traçado dos rios
e cadeias de montanhas.
A Geometria Euclidiana clássi-
ca é construída a partir de 3
elementos: o ponto, a reta e o
plano. O ponto não tem dimen-
são, ou seja, é um elemento zero-dimensional. A linha
por sua vez, tem uma única dimensão, o comprimento, e portanto,
pode apresentar uma grandeza mensurável. Finalmente, o plano
apresenta duas dimensões, o comprimento e a largura. Com
estes 3 elementos, Euclides de Alexandria, que viveu entre 360
e 295 A.C., construiu a Geometria Euclidiana.
Alguns matemáticos, como Bernhard Riemann, observaram que
os conceitos descritos por Euclides podem ser extrapolados
para objetos de “n” dimensões, como hiperesferas, hiperplanos,
simplex n-dimensionais e outras “figuras”.
Mandelbrot, por sua vez, observou de forma brilhante que
existem dimensões “quebradas”, ou seja, que realmente existem
objetos “n-dimensionais”, onde “n” é um número real. Assim, se
uma reta apresenta uma única dimensão e o plano apresenta
duas dimensões, como seria um objeto “1,5 dimensional”? De
fato, Mandelbrot mostrou que tais objetos existem e podem ser
descritos pela teoria que ele chamou de Geometria dos Fractais.
A Geometria Fractal estuda objetos com propriedades
interessantes, como por exemplo, o Tapete de Sierpinski, que
é o resultado da remoção sucessiva do quadrado central, após
divisão do quadrado maior original em nove quadrados menores
e iguais, formando um objeto com área que tende a zero e
perímetro que tende ao infinito. A imagem mostrada abaixo é
uma extrapolação do “Tapete” para um “Cubo de Sierpinski”.
Observem que a quebra [fratura] de uma dimensão em outra
menor, de mesma forma e contida dentro da primeira, cria uma
dimensão sem fim.
Benoît Mandelbrot pode ter
sido vítima da beleza de sua
própria criação pois as imagens
construídas a partir da Geometria
Fractal tiveram um forte apelo para
o mundo das artes.
Este apelo fez com a Geometria
Fractal fosse vista e usada mais
como uma ferramenta de ilustração
do que como um modelo matemático
para representação da natureza. Por
exemplo, a busca da palavra “fractal”
no Google Images apresenta mais
de 1 milhão de resultados, todo eles
de grande apelo visual.
Por ser matemático, Mandelbrot
nunca foi considerado um candidato ao Prêmio Nobel, pois
não existe essa categoria na premiação. Mas a utilização
prática da Geometria Fractal poderá, no futuro, reconhecer
a sua contribuição para outras áreas, como a Física ou a
Economia. Se alguém mostrar, por exemplo, que a evolução
das crises financeiras também tem um comportamento fractal,
a justiça terá sido feita. Em outra linha, Stephen Wolfram
e a teoria dos Autômatos Celulares, explicada no seu livro
“A New Kind of Science”, pode ser o começo da correção desse
equívoco histórico.
Para saber mais:
http://tinyurl.com/34f59ty
http://www.math.yale.edu/mandelbrot/
http://www.wolframscience.com/
21
Technology leadership council Brazil Technology leadership council Brazil
méTricas de sofTware
Daniela Marques
É indiscutível que qualidade é um item importante para qualquer
produto ou serviço. Um software usado como ferramenta para
suportar diversas linhas de negócios nas empresas também deve
apresentar, a cada versão, níveis mais elevados de qualidade.
É fato também que novas versões são exigidas para atender
às novas demandas, assim como para oferecer novidade aos
clientes. Essas afirmações trazem à tona a questão de como
aumentar a produtividade no desenvolvimento de software
mantendo ou elevando os padrões de qualidade.
Uma das ferramentas que a engenharia de software utiliza são as
métricas de software. Essas métricas podem ser consideradas
como um conjunto de atributos, previamente documentados e
conhecidos do ciclo de desenvolvimento de software.
Apesar da existência da
norma IEEE 1061-1998, ain-
da persiste uma falta de con-
senso na utilização dessas
métricas, ainda que poucos
duvidem que elas sejam
essenciais para o processo
de desenvolvimento de qual-
quer software. Afinal, com as
métricas é possível realizar
análises nas informações
coletadas, de forma a poder acompanhar o desenvolvimento
de um software, traçar planos para manter o cronograma do
projeto em dia e atingir o nível desejado de qualidade.
Em relação à qualidade, é importante ressaltar que todos os
envolvidos no processo de desenvolvimento de um software
devem participar na determinação do seu respectivo nível de
qualidade, assim como no tratamento das inconformidades
no atendimento aos requisitos inicialmente especificados. As
métricas de software podem ser classificadas em medidas diretas
(quantitativas) e medidas indiretas (qualitativas). As medidas
diretas são aquelas que representam uma quantidade observada,
tais como custo, esforço, número de linhas de código, tempo
de execução e número de defeitos. Já as medidas indiretas
são aquelas que exigem análise e estão relacionadas com a
funcionalidade, qualidade, complexidade e manutenibilidade.
As métricas de software auxiliam diretamente no planejamento
do projeto. Por exemplo, a métrica “LOC (Lines of Code)” é
utilizada para dimensionar prazo e custo através da contagem
de linhas de código.
A produtividade durante cada teste (derivada do tempo de
execução) e o número de defeitos encontrados trazem como
benefício a informação necessária para a estimativa de
finalização do projeto e do esforço exigido em cada fase de
testes. A quantidade de defeitos encontrados também fornece
dados para a determinação da qualidade do software (medida
indireta), assim como a análise da causa-raiz dos defeitos ajuda
a formalizar um plano de melhorias para as futuras versões (veja
exemplo no quadro).
Diversas são as métricas
existentes e as suas apli-
cações no ciclo de vida de um
software. Cabe ao gerente de
projeto coordenar as ações
para determinar o padrão de
qualidade requerido e definir
quais elementos devem ser
medidos e monitorados
durante esse ciclo. A
coleta dessas informações
permite não só um melhor acompanhamento do processo
de desenvolvimento de um software, mas também a análise
qualitativa desse software como um produto. A base histórica
das métricas permite que futuras propostas de mudança ou
criação sejam mais precisas, visto que projetos similares tendem
a passar pelos mesmos problemas e soluções.
Para manter ou elevar o nível de qualidade de um software
é essencial medir e monitorar durante todo o seu ciclo de
desenvolvimento. As extrações de métricas fornecem não só
uma visão da situação real mas, principalmente, permitem
planejar e tomar providências na busca de melhoria contínua.
Para saber mais:
http://www.kaner.com/pdfs/metrics2004.pdf
http://standards.ieee.org/findstds/standard/1061-1998.html
22
Technology leadership council Brazil
gesTão por compeTências: é hora do c.h.a.Pablo Gonzalez
Podemos afirmar que gerir pessoas é uma ciência em constante
evolução e repleta de desafios. Neste contexto, um modelo que
vem se tornando cada vez mais notório nas organizações é a
chamada gestão por competências, na qual o objetivo principal
é melhorar o preparo dos colaboradores em busca de maior
produtividade e adequação ao negócio, valorizando assim o
capital intelectual da organização.
Com base nesta premissa, gerir competências significa
coordenar e incentivar os colaboradores a reduzirem os gaps
(necessidades de melhoria), saber o que eles são capazes de
executar (competências atuais) e entender o que a empresa
espera deles (competências requeridas).
O termo “competência” pode ser representado
por três propriedades correlacionadas,
resumidas na sigla C.H.A. Conhecimento,
Habilidade e Atitude. O Conhecimento
refere-se à assimilação de informações
que a pessoa acumulou no decorrer da
vida e que causam impacto sobre seu
julgamento ou comportamento — o saber. Já
a Habilidade refere-se à aplicação produtiva
do conhecimento — o saber fazer. Por fim, a
Atitude refere-se à conduta da pessoa em
situações distintas e na sociedade — o agir.
Para exemplificar a aplicação deste conceito em uma organização,
vamos imaginar que numa escala de zero a dez, a sua habilidade
em “Negociação” seja seis, e, supondo que o grau mínimo
requerido pela empresa seja dez, podemos afirmar que você
tem um gap de valor quatro nesta competência.
Com base nesse resultado, e, juntando-se os resultados de
outras técnicas de análise de desempenho como o Feedback
360º, cria-se um plano de redução de gaps, através do qual a
empresa vai sugerir como e quando esses gaps serão trabalhados.
O intuito é aprimorar as competências existentes de maneira
alinhada aos objetivos estratégicos da organização, através de
um plano de desenvolvimento profissional individual.
A implementação da gestão por competências não é complexa,
porém requer alguns métodos e instrumentos específicos. Ter
a missão, visão, valores, objetivos estratégicos, e processos
bem definidos são alguns dos passos fundamentais para a
sua adoção.
Cabe ao RH definir a matriz de competências requeridas
juntamente aos gestores de cada área. Outro fator essencial
é manter a comunicação ativa durante todo o projeto, a fim
de esclarecer os objetivos e manter os avaliados informados.
É importante, ainda, salientar que a falta de preparo das
pessoas para avaliar e dar feedback e a resistência de alguns
colaboradores podem dificultar a adoção do modelo. No entanto,
tal dificuldade pode ser mitigada através da capacitação prévia
e conscientização.
O uso da tecnologia pode ser um acelerador, já que auxilia na
identificação e armazenamento histórico das competências,
além de permitir a geração de gráficos e relatórios para análise.
Seguindo esse modelo a empresa poderá
estruturar melhor os papéis profissionais e
competências fundamentais para o negócio,
aumentar a eficácia na execução das tarefas,
identificar talentos e garantir que seus
profissionais apresentem os diferenciais
competitivos exigidos pelo mercado.
Assim, a gestão das competências é flexível
o bastante para ser adotada em empresas de
qualquer porte, desde pequenas organizações
até multinacionais, mostrando ser viável e
eficiente em múltiplos cenários.
Empresas como Coca-Cola, Embraer, IBM, Petrobras e Shell, entre
muitas outras, já adotaram medidas voltadas para a gestão por
competências e relataram melhorias significativas em termos de
eficácia na execução das tarefas, reconhecimento e motivação
dos funcionários, entre outros benefícios.
Em suma, cabe à empresa utilizar esse modelo num ciclo de
melhoria contínua no qual, a cada novo projeto ou ciclo de
avaliação, novos indicadores deverão ser criados e os antigos
reavaliados, de forma a mensurar os resultados obtidos e
planejar os próximos passos. E é dentro desse contexto que
a gestão por competências busca a excelência corporativa e
a satisfação daqueles que representam o maior bem de uma
empresa: as pessoas.
Para saber mais:
http://slidesha.re/19HNtL
http://bit.ly/fMylgE
http://www.gestaoporcompetencias.com.br
23
Technology leadership council Brazil Technology leadership council Brazil
daily scrum para Todos!Renato Barbieri
Hora do almoço no
Morumbi Shopping em
São Paulo. Cheguei bem
cedo pois, como sabem
os frequentadores dos
restaurantes desse shop-
ping, essa é a única forma
de garantir lugar nas mesas
maiores quando não há
reserva. No restaurante es-
colhido, garçons e maitres
estão reunidos num círculo,
todos em pé. Os maitres
conduzem a rápida reunião
com orientações gerais e algumas específicas.
Alguns dos garçons são novos e são apresentados ao time, que
lhes dá as boas-vindas. Alguns garçons comentam situações,
tiram dúvidas rápidas e em dez ou quinze minutos a reunião está
encerrada. Isso ocorre diariamente em todos os restaurantes
da rede, segundo me informou um dos maitres. Corta a cena.
O Movimento Ágil nasceu como uma iniciativa de desenvolvedores
de software com o objetivo de encontrar alternativas aos métodos
tradicionais de desenvolvimento que tornassem essa atividade
mais leve, mais ágil, e culminou com a publicação do Manifesto
Ágil (Agile Manifest) em fevereiro de 2001.
Entre as novas metodologias que surgiram a partir desse
movimento, a Extreme Programming (XP) prega como um dos
seus príncipios básicos reuniões diárias, de no máximo quinze
minutos, na qual todos os participantes permanecem em pé
e utilizam esse momento para compartilhar experiências e
dificuldades.
Outra metodologia ágil, a Scrum, também incentiva as reuniões
diárias e rápidas conhecidas como Daily Scrum Meetings (ou
simplesmente Daily Scrum), com o mesmo propósito do exemplo
anterior: compartilhar experiências e dificuldades de maneira
rápida, ágil e frequente.
Numa Daily Scrum, três perguntas básicas devem ser respondidas
por cada participante:
• O que foi feito desde a última reunião?
• O que pretendo fazer até a próxima reunião?
• O que me impede de prosseguir?
A ideia não é transformar esses momentos em meras reuniões
de status, mas compartilhar o que cada um já fez e ainda irá
fazer para alcançar o objetivo comum do grupo. Questões e
problemas são apenas citados resumidamente e seus detalhes
e soluções deverão ser tratados externamente com as pessoas
apropriadas.
A metodologia Scrum prevê um agente facilitador na equipe,
o qual tem papel fundamental na Daily Scrum: o de Scrum
Master. Ele age como moderador das reuniões e guardião da
metodologia, não permitindo que discussões se estendam além
do tempo e do escopo determinado. Ele mantém o foco no que
é necessário e alerta para exageros e distrações.
A prática da Daily Scrum pode ser adotada em muitas situações
além do desenvolvimento de software. Temos exemplos práticos
de seu uso em equipes de suporte, e como mostra o exemplo
no começo deste artigo, restaurantes também a utilizam, de
forma adaptada às suas necessidades, mas mantendo o objetivo
primordial: a colaboração no trabalho em equipe.
E por que não adaptar uma boa ideia?
É comum pensarmos em metodologias como camisas-de-
força, que ao invés de apoiar e ajudar os profissionais, acabam
por restringir ações e inibir a criatividade. Esse é um conceito
ultrapassado e o Movimento Ágil quebrou esse paradigma.
As melhores práticas são maleáveis por princípio, e permitem a
revisão de seus conceitos e implementações. A Daily Scrum não
é exceção e nem mesmo precisa ser diária, como o nome original
sugere, mas deve ser frequente, e o mais importante de tudo:
que esses encontros resultem na união de seus participantes
e assegure, para cada um deles, que todos colaborem para
alcançar um objetivo comum.
Para saber mais:
http://www.agilemanifesto.org
http://www.scrumalliance.org
http://www.extremeprogramming.org
24
Technology leadership council Brazil
como agradar ao clienTe que conTraTa serviços?Rosemeire Araujo Oikawa
Imagine as seguintes situações do cotidiano:
• Ficar sem toalhas por quase um dia inteiro num quarto de
hotel ao voltar da praia;
• Receber o seu carro do manobrista com arranhões após
um jantar perfeito num restaurante;
• Esperar dez minutos para ser atendido por um Call Center
e não conseguir solucionar seu problema.
A lista de situações adversas que podem ocorrer quando
contratamos serviços é enorme. E com os consumidores cada
vez mais exigentes e conscientes dos seus direitos, a tendência
é que essa lista continue a crescer. As empresas prestadoras
de serviço precisam estar preparadas para lidar com isso.
Hoje o mercado de serviços
representa 68,5% do PIB mun-
dial. Veja no gráfico ao lado a
representatividade desse setor
na economia global. As empresas
já aprenderam a terceirizar o que
não é o foco do seu negócio, a
vender produtos como serviços,
a criar serviços especializados,
e muitas estão aprendendo a
trabalhar de maneira orientada
a processos. Mas em meio a tudo isso parece que muitas
esqueceram o mais importante: atender às expectativas dos
seus clientes.
Firmar um Acordo de Nível de Serviço ou SLA (Service Level
Agreement) é a chave para iniciar um relacionamento de sucesso
com o cliente. É através desse documento que o prestador
de serviço traduz as expectativas do cliente em objetivos a
serem entregues, penalidades que poderão ser aplicadas e
responsabilidades que deverão ser cumpridas. O grande desafio
é ter os SLAs bem definidos, pois as falhas ocorrem justamente
quando as expectativas do cliente não são corretamente
traduzidas nesse acordo.
Para se ter SLAs bem definidos os seguintes aspectos, devem
ser levados em consideração:
• Conhecer as necessidades dos usuários do serviço (usuário
é quem utiliza o serviço, e cliente é quem paga);
• Entender como o serviço suportará os negócios do cliente
e os impactos que lhes poderá causar;
• Estabelecer níveis alcançáveis e que possam, de fato, ser
medidos;
• Estruturar o acordo com um pensamento de provedor de
serviços e não de vendedor de produtos;
• Criar um modelo de custos que suporte os níveis de serviço
oferecidos ao cliente;
• Especificar níveis de serviço
para todos os componentes
do serviço principal, incluindo
as partes terceirizadas;
• Definir acordos com as áreas
internas e externas responsáveis
pela execução do serviço.
A eficácia na definição e gestão
dos SLAs é a base para a entrega
de serviços com qualidade. A
formalização das expectativas do cliente e o entendimento claro
entre as partes do que foi contratado e o que será entregue
molda a percepção sobre um serviço, tornando-o mensurável
e objetivo.
Atingir um SLA é entregar o que já é esperado e excedê-lo pode
comprometer o custo e até passar despercebido pelo cliente. Por
outro lado, SLAs não cumpridos podem comprometer a relação
com o cliente ou a percepção de qualidade de todo o serviço.
Os SLAs devem ir além da pura medição e ser um instrumento
de suporte à melhoria contínua dos serviços e dos processos
de negócio nas empresas.
Para saber mais:
http://www.gartner.com/DisplayDocument?id=314581
Fonte dos dados: Banco Mundial http://data.worldbank.org
Agricultura Manufatura
Serviço10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
1800 1815 1830 1845 1860 1875 1890 1905 1920 1935 1950 1965 1980 1995 2000
Fonte dos dados: Banco Mundial (http://data.worldbank.org)
0%
25
Technology leadership council Brazil Technology leadership council Brazil
especial cenTenário da iBm: sage, um Berço de inovação
Marcelo Sávio
A Força Aérea dos Estados Unidos, impulsionada pela repercussão
da explosão das bombas atômicas experimentais soviéticas
no início da década de 50, deu início a um projeto ambicioso
chamado SAGE (Semi-Automatic Ground Environment) para
criação e implantação de um sistema de defesa contra aviões
bombardeiros.
Esse sistema foi implantado entre 1957 e 1961 e operava de
maneira distribuída por vinte e três centros de processamento
de dados instalados em bunkers gigantescos na América do
Norte, cada qual contendo dois computadores de grande porte
chamados de AN/FSQ-7 (Army-Navy Fixed Special eQuipment).
Essa máquina, especialmente desenvolvida pela IBM, foi rotulada
de “cérebro eletrônico” nas manchetes da imprensa da época
e é, até hoje, considerado o maior computador que já existiu.
Pesava mais de 250 toneladas e usava mais de 50 mil válvulas
eletrônicas, que consumiam 3 megawatts de energia elétrica.
O sistema processava um conjunto de informações oriundas
de centenas de radares, calculava rotas aéreas e comparava
com dados armazenados para viabilizar tomadas de decisão
que, de forma rápida e confiável, efetuassem a defesa contra
os aviões bombardeiros inimigos potencialmente carregados
de artefatos nucleares altamente destrutivos.
Para fazer tamanha complexidade funcionar, uma série de
inovações foram introduzidas no projeto, tais como o uso do
modem para a comunicação digital através de linhas telefônicas
comuns, monitores de vídeo interativos, computação gráfica,
memórias de núcleo magnético, métodos de engenharia de
software (o sistema possuía mais de 500 mil linhas de código
escritas por centenas de programadores), técnicas de detecção
de erros e manutenção de sistemas, processamento distribuído
em tempo real e operação em alta disponibilidade (cada bunker
possuía sempre um de seus dois computadores operando em
modo stand-by).
A experiência adquirida pelas pessoas e empresas (Bell,
Burroughs, IBM, MIT, SDC e Western Electric) participantes
do SAGE foi posteriormente estendida a outros projetos de
sistemas militares e civis. Algumas por exemplo, trabalharam
no projeto da ARPANET, a rede de computadores que resultou
na Internet que todos usamos. Outras trabalharam no sistema
de controle de tráfego aéreo civil da FAA (Federal Aviation
Administration) nos Estados Unidos. O SAGE também serviu
de modelo para o sistema SABRE (Semi-Automatic Business-
Related Environment), criado pela IBM em 1964 para controlar,
em tempo real, as reservas de passagens aéreas da companhia
American Airlines, que funciona até hoje.
O SAGE funcionou até o final de 1983, apesar de que, quando
ficou totalmente pronto, no início de 1962, as principais
ameaças à segurança aérea já não eram mais os grandes
aviões bombardeiros, mas sim os velozes mísseis balísticos
intercontinentais, contra os quais o sistema era inútil. Apesar
dessa breve “obsolescência”, o SAGE representa um marco
importante na história da ciência e da tecnologia, pois, ao se
tornar o primeiro sistema on-line, em tempo real e geograficamente
distribuído do mundo, desbravou um território inexplorado, com
a ajuda de tecnologias e ideias inovadoras que abasteceram
de maneira indelével a então nascente indústria de informática.
Para saber mais:
http://www.ibm.com/ibm100/us/en/icons/sage/
http://www.youtube.com/watch?v=iCCL4INQcFo
26
Technology leadership council Brazil
inTegrar conhecimenTos: o desafio do consulTor
Márcia Vieira
A sociedade atual, que está sendo chamada de “hiper-
moderna”, ressalta uma cultura marcada pelo excesso de
consumo, de informações, de coisas descartáveis e rela-
cionamentos temporários. A velocidade das mudanças e a
falta de tempo disponível conduzem a um estilo de vida em
ritmo acelerado e a um estado de constante atenção e busca
por informação sobre diversos temas. Esse novo cenário gera
oportunidades de trabalho para consultoria em diversas disciplinas
organizacionais, tais como gestão empresarial, tecnologia da
informação, marketing e vendas, entre outras.
De acordo com o Instituto Brasileiro dos
Consultores de Organização, o trabalho de
consultoria pode ser definido como
“o processo interativo entre um agente de
mudanças (externo e/ou interno) e seu
cliente, que assume a responsabilidade
de auxiliar os executivos e colaboradores
do respectivo cliente nas tomadas de
decisão, não tendo, entretanto, o controle
direto da situação que deseja ser mudada
pelo mesmo”.
Como agente de mudança, o consultor deve
ser hábil na identificação e solução de problemas, e demonstrar
paixão por disseminar conhecimento. Quando isso não ocorre,
há risco de ser descartado pela lógica da hipermodernidade.
Basicamente significa que para ser um bom consultor em qualquer
disciplina organizacional, deve-se buscar conhecimento útil,
prático e aplicável, com foco na obtenção de resultados.
Manter-se atualizado sobre aquilo que já faz bem e ampliar o
conhecimento é o maior desafio e ao mesmo tempo um dos
maiores motivadores da carreira profissional em consultoria.
Boas memórias em minha carreira como consultora remetem a
profissionais que se diferenciaram pelas habilidades em trazer
soluções criativas e chegar a ótimos resultados a partir de um
vasto conjunto de informações e conhecimentos adquiridos.
Como o conhecimento é a matéria-prima essencial do consultor,
pode-se afirmar que o processo de geração de conhecimento
é o ponto de partida, no qual os consultores devem sempre
buscar uma visão de causa e efeito e gerenciar as expectativas
dos clientes em relação às soluções dos problemas.
A geração de conhecimento estabelece um ciclo contínuo e
uma relação sinérgica entre os conhecimentos explícito e tácito.
O conhecimento explícito, em geral, é obtido mais facilmente,
seja através das bases corporativas, cursos, treinamentos, ou
nas mídias disponíveis.
Já o conhecimento tácito é decorrente
da experiência de cada profissional. Em
um mundo globalizado, torna-se mais
complexo integrar esses conhecimentos.
Por essa razão é imprescindível que o
consultor mantenha uma extensa rede de
relacionamentos e desenvolva novas formas
de atuação junto a indivíduos e grupos
(teamwork), com objetivo de integrar as
partes e visões do problema, assim como
aprofundar todos os seus aspectos.
A competência para integrar conhecimentos
e obter uma visão do todo é fundamental para o consultor.
Além disso, buscar o entendimento de como os conceitos
são construídos e articulados, e não simplesmente aceitar o
conhecimento das partes, ajuda a identificar problemas, sugerir
mudanças e trazer visões de outras culturas.
O consultor é aquele que, além de saber fazer, deve saber pensar e,
portanto, precisa ter um nível elevado de educação e uma atitude
de formação permanente, na qual as habilidades de aprender
a aprender e de trabalhar em equipe atuem como fio condutor.
Para saber mais:
http://www.ibco.org.br/
Livros: Aprendizes e Mestres: A nova cultura da aprendizagem. Juan Ignácio Pozo (2002) e Introdução ao pensamento complexo. Edgar Morin (2003)
27
Technology leadership council Brazil Technology leadership council Brazil
especial cenTenário da iBm: iBm ramac: o início de uma era na compuTação comercial
José Alcino Brás
Na década de cinquenta do século passado os computadores
deixaram de ser exclusivos das aplicações militares e passaram
a ser necessários na automação de processos de negócio das
empresas. Foi para atender a essa demanda de mercado que
a IBM lançou, em 1956, o IBM 305 RAMAC (Random Access
Method of Accounting and Control) o seu primeiro computador
produzido em série projetado para executar aplicativos de
contabilidade e controle de transações comercias, tais como
processamento de pedidos, controle de inventário e folha
de pagamento.
A grande novidade do 305 RAMAC não estava na sua capacidade
de processamento mas na utilização de um novo equipamento
periférico para a entrada e saída de dados, denominado “Unidade
de Disco IBM 350”, o qual permitia a gravação e leitura de dados
de forma extremamente rápida quando comparada aos outros
meios de armazenamento usados até então. Do tamanho de
dois refrigeradores, o IBM 350 consistia de 50 discos de 60 cm
de diâmetro montados e centralizados em único pivô movido
por um motor e que somavam 5 megabytes de capacidade, os
quais eram acessados a uma taxa de 10 kilobytes por segundo.
A unidade de disco do RAMAC representou um verdadeiro
marco na evolução da tecnologia, no qual diversos obstáculos
técnicos foram suplantados, tais como encontrar o material
adequado para confecção do disco e da superfície magnética,
criar o mecanismo de leitura e gravação com movimento rápido
e certeiro posicionando-o sobre o local físico do dado que girava
a 1.200 rotações por minuto, além de garantir que o mesmo não
tocasse fisicamente a superfície do disco magnético através
da injeção de ar comprimido entre a superfície do disco e o
cabeçote de leitura e gravação.
Ao possibilitar que a informação fosse gravada, lida e alterada
em poucos segundos e, principalmente, pudesse ser acessada
de forma aleatória, eliminou a necessidade de se classificar os
dados em sequência antes do seu processamento, o que até
então era um requisito imposto pela tecnologia dos equipamentos
de fita magnética ou cartões perfurados, que eram os meios
disponíveis para se armazenar dados mais usados na época.
O sucesso do RAMAC fez sua produção alcançar mais de mil
unidades comercializadas e instaladas ao redor do mundo,
inclusive no Brasil, onde chegou em 1961. Essa máquina
principiou o fim da era dos cartões perfurados e introduziu
uma nova era, na qual as corporações passaram a utilizar
computadores para conduzir e agilizar seus negócios, fazendo
uso do processamento de transações on-line e armazenamento
de grandes volumes de dados em discos magnéticos.
A tecnologia introduzida no RAMAC foi a semente que gerou os
discos magnéticos produzidos até os dias atuais - antigamente
ainda chamados de “winchesters”, depois “discos rígidos” e hoje
simplesmente de “HDs” — os quais se encontram disponíveis
no mercado com capacidade de armazenamento superiores
a 2 terabytes, giram a 15 mil rotações por minuto e alcançam
taxas de transferência de dados superiores a 200 megabytes
por segundo (mais de 20 mil vezes superior ao IBM 350).
Aquele grupo de engenheiros do laboratório da IBM talvez não
imaginasse que o RAMAC representaria o início de uma era
para uma das tecnologias mais importantes na indústria da
computação, a qual influenciaria por completo no modo de
armazenar e processar a informação, um bem intangível e de
grande valor para inúmeros segmentos da sociedade, que
por sua vez segue demandando e gerando cada vez mais
informação, num volume de crescimento estimado, ano passado,
em mais de 1 zettabytes (1 milhão de terabytes). Haja disco
para armazenar tudo isso!
Para saber mais:
http://www.ibm.com/ibm100/us/en/icons/ramac/
http://www.youtube.com/watch?v=CVIKk7mBELI
http://www.youtube.com/watch?v=zOD1umMX2s8
28
Technology leadership council Brazil
a evolução do modelo de enTrega de serviços de TiEduardo Sofiati
O mercado de serviços de TI tem evoluído significativamente
nos últimos anos. Provedores e clientes têm buscado ampliar
as modalidades de contratação dos serviços, visando obter
maiores benefícios — e não apenas redução de custos — por
meio de um melhor alinhamento das soluções de tecnologia
com as necessidades de negócio.
O modelo tradicional possui provedores especializados na entrega
de serviços repetitivos, os quais se baseiam em ganhos de
eficiência e escala, proporcionando competividade. Como o
mercado de serviços de TI apresenta muitos competidores,
cada provedor busca propor diferenciais para atrair e manter
clientes e assim aumentar sua participação
nesse mercado.
Alguns provedores apostam em modelos
que trazem maior valor para os serviços
ofertados para atender aos requisitos de
negócios de seus clientes. O provedor,
nesse caso, é percebido pelo cliente
como um parceiro estratégico ao invés
de fornecedor e passa a oferecer não
commodities, mas sim soluções.
Como exemplo, podemos citar a evolução nas ofertas de serviços
recentemente lançadas pelo segmento de outsourcing de
infraestrutura e telecomunicações, que estão alinhadas às últimas
tendências de tecnologia, tais como Cloud Computing, SaaS
(Software as a Service), Virtual Desktops, Unified Communications
e segurança de redes. Essa evolução está transformando o
modelo tradicional de outsourcing, em um modelo utility-based,
que muda o conceito de propriedade sobre os ativos de TI.
Segundo o Gartner, até 2012, 20% das empresas não terão
mais ativos de TI, o que se transforma em oportunidades para
os provedores alavancarem ofertas mais completas, capazes
de entregar serviços com mais agilidade e qualidade através
da adoção de tecnologias de ponta
Em relação ao desempenho dos provedores de serviços também
houve bastante evolução nos últimos anos. Através do uso de
KPIs (Key Performance Indicators) tem sido possível mensurar
a efetividade dos processos e soluções de tecnologia que
têm sido empregados nos contratos. Os SLAs (Service Level
Agreements), que regem os contratos de outsourcing há bastante
tempo, também têm evoluído na definição de indicadores mais
alinhados à disponibilidade dos serviços e sistemas que causam
impacto aos negócios dos clientes.
Para as empresas de serviços conseguirem sobreviver e crescer
nesse mercado tão acirrado e ainda manter resultados saudáveis,
as seguintes estratégias estão sendo adotadas, principalmente
pelas empresas globais:
Padronização: maximizar o uso de modelos comuns para a
maior parte do portfólio de serviços, como
forma de viabilizar a repetição na entrega,
o que resulta em economia de escala e
simplificação nas estruturas de delivery;
Integração: Executar modelos de entrega,
na forma mais eficiente possível, usando
todo o alcance que o provedor possua,
visando obter o menor custo possível com
pessoal aproveitando a disponibilidade de
skills existentes em cada região;
Automação: Reduzir as tarefas manuais
ao máximo para baixar custos e ainda elevar a qualidade do
serviço entregue.
É possível refletir acerca da notável evolução ocorrida com
a prestação de serviços de TI ao longo dos anos. Na forma
antiga, os provedores criavam uma abordagem nova para cada
projeto, propondo modelos customizados para cada cliente,
um método ineficiente que gerava desperdício de tempo e
dinheiro. Atualmente se busca simplificar a concepção dos
projetos, sobretudo suas bases, através de modelos padronizados
e simplificados, baseados nas melhores práticas de TI e no
conhecimento da indústria. Com isso, mais tempo é dedicado
na solução de problemas de negócios específicos de cada
cliente, transformando a TI numa alavanca para estimular o
crescimento, gerando economias para a empresa e preparando-a
para atender novos desafios.
Para saber mais:
http://www.ibm.com/services
29
Technology leadership council Brazil Technology leadership council Brazil
especial cenTenário da iBm: iBm 1401, quando os Tempos eram ouTros...José Carlos Milano
Respeitando-se as devidas proporções, poder-se-ia dizer
que o computador IBM 1401 foi, na década de sessenta, tão
importante para a disseminação da computação no mundo
corporativo das pequenas e médias empresas, quanto o PC
para os consumidores dos dias de hoje. Para se ter uma ideia,
venderam-se mais de dez mil equipamentos dessa linha, quando
muitos leitores deste artigo nem sequer haviam nascido. Os
tempos eram certamente outros...
O 1401 foi o primeiro computador totalmente transistorizado
fabricado pela IBM (quando se substituíram as válvulas a vácuo).
Era menor e mais durável que os antecessores. Foi lançado em
1959 e comercializado até 1971 (e muitos seguiram rodando
até a década de oitenta). Seu sucesso foi tão grande e para
ele tanto código foi desenvolvido, que a IBM se viu obrigada
a criar um emulador por microcódigo que permitisse executar
os programas escritos para o 1401 nas linhas de mainframes
que o sucederam, começando pelo System/360, lançada em
1964. Por incrível que pareça, muitos desses emuladores foram
utilizados em outras famílias de mainframe até a chegada do ano
2000, quando finalmente os programas ainda existentes para
1401 tiveram que ser reescritos por causa do “bug” do milênio.
A facilidade de programação, através das linguagens SPS
(Symbolic Programming System) e depois com a Autocoder,
foi a maior responsável pelo sucesso do 1401. No início, a
maioria dos ambientes computacionais (chamados de CPDs)
era constituída pelo “mainframe” 1401 em si e pelos “frames” da
unidade perfuradora e leitora de cartões (1402) e da impressora
(1403). Ainda não existiam unidades de fita ou discos magnéticos.
Como também ainda não existia sistema operacional, a operação
de criação de código executável a partir da programação
simbólica feita pelo usuário era bem peculiar. O programa
SPS precedia o programa escrito pelo usuário. Tudo em cartão
perfurado. Ao pressionar o botão de “load” na leitora de cartões
1402, o programa SPS era carregado na memória do 1401 para
em seguida ler e traduzir o programa escrito pelo usuário em
código executável. Na verdade, a tradução do programa do
usuário acontecia em duas etapas. Na primeira, gerava-se uma
massa de cartões com a tradução parcial, que era perfurada na
1402. Essa massa de cartões era então realimentada na parte
leitora da 1402 quando, finalmente, os cartões com o programa
objeto eram perfurados e ficavam prontos para execução.
A menor unidade de memória endereçável no 1401 era o
“character”, composto por oito bits (fisicamente um núcleo de
ferrite para cada bit). Esse “character” seria o equivalente ao
que hoje chamamos de “byte”, termo que só passou a existir
na era do System/360. Desses oito bits, seis eram utilizados
para representar o caractere, o sétimo era o bit de paridade e
o oitavo representava uma “word mark”. Uma “word” no 1401
representava uma sequência variável de caracteres consecutivos,
sendo que o último era chamado “word mark”. É por isso que
o 1401 ficou conhecido como uma máquina que processava
tamanhos variáveis de palavras. Cada instrução em sua linguagem
de máquina podia ter de 1, 4, 7 ou 8 caracteres de tamanho.
Apesar de toda a beleza da tecnologia, não era nada trivial
programar essas fantásticas máquinas, principalmente se
comparamos com os atuais ambientes de desenvolvimento
de sistemas. Passados 50 anos, as facilidades e técnicas de
programação de hoje permitem uma enorme produtividade
na geração de códigos. Alguém se arrisca a estimar quantas
linhas de código de programas devem existir no mundo hoje?
Para saber mais:
http://www.ibm.com/ibm100/us/en/icons/mainframe/
http://ibm-1401.info/index.html
30
Technology leadership council Brazil
a inTerneT das coisas
José Carlos Duarte Gonçalves
A Internet foi criada pelos norte-americanos em 1969, como
uma rede visava o compartilhamento dos caros e escassos
recursos computacionais entre as universidades financiadas pela
ARPA (Advanced Research Projects Agency), uma agência de
fomento à pesquisa do Depto. de Defesa do governo dos Estados
Unidos. A ARPANET (assim chamada no início) foi concebida
para suportar ambientes computacionais heterogêneos e oferecer
o máximo de resiliência possível, mesmo no caso de falha ou
indisponibilidade de alguns nós da rede. Isso se tornou possível
através do uso de sistemas de roteamento de pacotes distribuídos
entre os vários computadores que interligados permitiram a
continuidade das comunicações e operações. Para estar sempre
disponível e permitir a conexão
de sistemas heterogêneos, duas
características foram necessárias:
simplicidade e padronização.
Simplicidade é fundamental para
facilitar a conexão de qualquer
coisa, e a aderência a padrões
é necessária para permitir, além
da comunicação e troca de
informações, a interoperabilidade.
Na década de noventa, com a
criação de formas mais amigáveis
de interação, como a World
Wide Web (WWW) e também
com o advento dos softwares
navegadores (browsers), todo mundo, e não mais somente os
pesquisadores acadêmicos, passou a ter acesso às facilidades
providas pela Internet. A primeira grande novidade daquele
momento foi a criação de websites, tais como os disponibilizados
por empresas, bancos e jornais, por exemplo. Os usuários,
que contratavam serviços de provedores, passaram a acessar
informações do mundo todo, entrar em museus virtuais, ler
notícias em tempo real de qualquer lugar e utilizar também
outras aplicações como chats e email.
Em 1997, a IBM criou uma estratégia para a utilizar a Internet
como plataforma de negócios (e-business), o que ajudou a
consolidar a grande virada da Internet para o mundo comercial,
quando as empresas passaram a explorar a grande rede para
fazer negócios e aumentar lucros. Atualmente a Internet está
sendo explorada intensamente para a colaboração através de
redes sociais, blogs, chats, twitter, etc. Petabytes de dados são
gerados todos os dias por inúmeras aplicações, ocasionando
uma explosão de informações.
E não param de surgir novos usos para a Internet, os quais
vão além da conexão entre pessoas e/ou computadores. Já
existe quase um trilhão de “coisas” conectadas na rede, o
que possibilita aplicações e usos em nossas vidas até então
inimagináveis, a partir da monitoração de eventos, em tempo
real, recebidos diretamente de sensores. Fazendo uso de
tecnologias economicamente viáveis e compatíveis, esses
sensores instalados em equipamentos, embalagens, prédios,
produtos, animais, marcapassos,
relógios e outros, utilizam-se de
microchips que são capazes de
capturar informações de vários
subsistemas e alimentar sistemas
centrais de suporte à tomada
de decisão e, evetualmente, de
ação sobre os eventos e objetos
monitorados.
A Internet das Coisas está criando
um rede objetos identificáveis e
que podem interoperar uns com
os outros (o que vem sendo
chamado de Machine to Machine,
ou M2M) e com os data centers e
suas nuvens computacionais. Ao aglutinar o mundo digital com
o mundo físico, está permitindo que objetos compartilhem in-
formações sobre o ambiente em que se encontram e reajam de
forma autônoma aos eventos, influenciando ou modificando os
próprios processos nos quais estão inseridos, sem necessidade
de intervenção humana.
Soluções desse tipo têm aplicabilidade em diversos setores da
sociedade e possibilitam o surgimento de modelos de negócio
inovadores, calcados em um novo mundo, instrumentado,
interconectado e inteligente. Essa é a Internet das Coisas ou
Internet of Things.
Para saber mais:
http://www.youtube.com/watch?v=sfEbMV295Kk
http://www.ibm.com/smarterplanet/
http://en.wikipedia.org/wiki/Internet_of_Things
31
Technology leadership council Brazil Technology leadership council Brazil
especial cenTenário da iBm: o programa espacial e a Tecnologia da informação
Agostinho Villela
Quando contemplamos a Lua no céu, é difícil imaginar como
o homem conseguiu chegar até esse astro. A Lua fica a mais
de 380 mil km de distância da Terra, o que significa mais de 10
vezes a distância dos satélites artificiais mais altos e cerca de 400
vezes mais longe que o alcance máximo dos ônibus espaciais.
Fica mais difícil ainda imaginar quando consideramos que tal
feito se deu há mais de 40 anos, durante a missão Apollo XI da
NASA, numa época em que os computadores mais poderosos
tinham menos capacidade de processamento e memória que
o mais básico telefone celular de hoje em dia.
A missão Apollo XI fez parte do programa espacial norte-americano,
que foi iniciado em 1958 como reação ao lançamento dos satélites
Sputnik I e II pela então rival União Soviética, dando início à
corrida espacial durante a Guerra Fria. Ao longo do tempo foi
subdividido em vários programas, sendo os projetos Mercury,
Gemini e Apollo os primeiros voltados para as viagens tripuladas.
O projeto Mercury foi iniciado em 1959 e durou até 1963. Tinha
como objetivo primário colocar um homem em órbita ao redor
da Terra. Consistiu de 26 missões.
Entre 1965 e 1966 foi executado o projeto Gemini. O foco,
nesse caso, era desenvolver técnicas necessárias para viagens
complexas ao espaço. Consistiu de 10 missões e teve eventos
como “caminhadas no espaço” e ”rendezvous” entre naves.
O programa Apollo, que tinha como meta levar o homem à
Lua até o final da década de 60, começou em 1961 e teve
como grande impulso o famoso discurso do então Presidente
John Kennedy ao Congresso norte-americano, pronunciado
dias depois, e em resposta, ao sucesso do primeiro vôo
tripulado ao espaço, no qual estava o cosmonauta russo Iuri
Gagarin. No seu auge, o programa Apollo chegou a empregar
400 mil pessoas e envolver 20 mil entidades, entre governo,
empresas, universidades e centros de pesquisa, tendo gasto
cerca de US$ 24 bilhões na ocasião (algo como US$ 150
bilhões nos dias de hoje).
O programa espacial demandou o estado da arte em informática
da época, empurrando os limites da tecnologia e contribuindo
de forma muito significativa para o seu progresso. Os avanços
na microeletrônica e na arquitetura de hardware e software dos
sistemas desenvolvidos para projetar e controlar as naves e
seus tripulantes foram substanciais.
A participação da IBM nesse contexto sempre foi muito intensa,
sendo considerada, inclusive, uma parte integral do programa
espacial norte-americano. Desde o início, forneceu computadores
(da família IBM 70x) para rastrear satélites, tanto os soviéticos
Sputniks, quanto os norte-americanos Explorer-1, (primeiro
satélite artificial dos Estados Unidos) e Echo-1, (primeiro
satélite de comunicação do mundo). Em meados dos anos
sessenta, a IBM forneceu computadores da família 7090 para
ajudar a NASA a controlar as primeiras missões tripuladas. E,
a partir de 1964, além de fornecer computadores S/360 para
projetar, rastrear e controlar naves, a IBM passou a fornecer
computadores embarcados para navegação e monitoração,
como os sistemas IU (Instrument Units) dos foguetes Saturno,
contribuindo decisivamente para o sucesso do primeiro vôo
tripulado que pousou na Lua, em Julho de 1969.
Pouco eventos contribuíram de forma tão intensa para a inovação
e o avanço da tecnologia da informação como o Programa
Espacial, que ainda hoje continua, na forma de ônibus espaciais,
sondas, telescópios espaciais, além da própria Estação Espacial
Internacional e, quem sabe, uma missão tripulada para Marte.
Tecnologias como o circuito integrado, painéis solares e células
combustíveis não existiriam ou teriam demorado mais para
surgir se não houvesse o desafio da conquista do espaço. E
nenhuma outra empresa de tecnologia de informação tem sido
tão protagonista desse processo como a IBM.
Para saber mais:
www.ibm.com/ibm100/us/en/icons/apollo/
www.ibm.com/ibm/ideasfromibm/us/apollo/20090720
32
Technology leadership council Brazil
colaBoração eficienTe em um planeTa inTeligenTe
Lenilson Vilas Boas
Em nosso cotidiano profissional, acessamos emails e websites,
usamos blogs, Twitter, redes sociais, mensagens instantâneas,
smartphones, videoconferência, compartilhamento e edição
online de documentos bem como diversas outras ferramentas
de colaboração. Essas tecnologias nos permitem realizar cada
vez mais atividades, independentemente de nossa localização
e influenciam em nosso comportamento.
Por outro lado, as organizações e a sociedade também exigem
mais agilidade, seja no trabalho ou na vida pessoal. Mas como
pode-se aumentar a produtividade sem otimizar ou reduzir
algumas atividades?
É nesse contexto que as ferramentas
colaborativas podem ser grandes aliadas,
reduzindo a quantidade de aplicações que
temos que administrar e tornando mais
ágil e intuitiva nossa interação com os
equipamentos. A produtividade torna-se
então diretamente proporcional à facilidade
de uso dessas ferramentas, causando uma
mudança que influencia diretamente em
nossa interação com os aparelhos e aplicativos, através dos
quais recebemos e enviamos informações a todo o momento.
Uma colaboração inteligente não depende apenas da tecnologia
mas também de uma mudança cultural, através da qual passamos
de uma postura individualista para outra, mais colaborativa.
Essa nova postura integra as pessoas e a sociedade através
de aparelhos e sistemas, que passam a ser considerados como
verdadeiros “companheiros”, indispensáveis para a comunicação
e a troca de informações em nosso dia-a-dia.
Podemos sofisticar ainda mais a colaboração e aumentar a
produtividade com a utilização de dados contextuais. Esses
dados consideram onde o usuário está localizado, com
quem está interagindo ou se está em uma situação especial,
como por exemplo, uma situação de perigo. Surge então a
computação ciente de contexto (context-aware computing)
com aplicações que utilizam e tomam decisões com base no
ambiente (contexto) em que estão inseridas em determinado
momento, considerando o local e a situação ao seu redor. Em
outras palavras, a computação ciente de contexto considera as
entradas implícitas que descrevem a situação e as características
do ambiente em sua volta. A origem dos dados contextuais está
nos indicadores de localização (GPS), sensores de temperatura e
luz, data e hora, monitores de redes de computadores, status de
serviços e outros. A integração de notebooks, celulares, sensores
e vários outros dispositivos ao ambiente físico, possibilita a
colaboração inteligente, capaz de adaptar
as aplicações às condições e limitações
dos seus usuários. Um exemplo disso é um
telefone celular ciente de contexto, capaz
de mudar automaticamente para o modo
“vibrar”, ao invés de “tocar”, dependendo
da hora ou local onde se encontra.
Com a futura implementação do IPv6, a
nova versão do protocolo de comunicação
da Internet e sua vasta capacidade de
endereçamento de equipamentos na rede, a colaboração
e a integração serão ainda maiores, pois existirão muitos
mais dispositivos conectados e capazes de interagir e trocar
informações em escala global. Será possível, por exemplo,
automaticamente identificar e combater situações de emergência
como incêndios, explosões, vazamento de substâncias tóxicas,
monitorar o trânsito e até mesmo informar seu médico sobre
resultados de exames ou algum acidente ocorrido.
Praticamente qualquer objeto, com o qual o ser humano possa
ou não interagir, será capaz de trocar informações com outros
equipamentos e pessoas, o que em muito poderá aumentar
nossa eficiência na execução das tarefas cotidianas. Tudo isso
sem ninguém precisar apertar nenhum botão.
Para saber mais:
http://www.ubiq.com/hypertext/weiser/SciAmDraft3.html
http://www.hardware.com.br/artigos/computacao-ubiqua/
33
Technology leadership council Brazil Technology leadership council Brazil
enxergando o mundo melhor
Carlos Eduardo Abramo Pinto
O que um laser desenvolvido para manufatura de chips eletrônicos,
um peru de jantar de Ações de Graças e três cientistas têm em
comum? Se você, tal como eu e mais de 20 milhões de pessoas
no mundo, realizou cirurgia de correção ocular nos últimos
20 anos, essa improvável combinação de tecnologia, reunião
familiar e busca por inovação faz parte da sua vida.
Criado na década de setenta por cientistas russos e desenvolvido
nos anos seguintes por diversos grupos, que incluíam o laboratório
de pesquisa naval dos EUA, o laser excimer foi concebido para
fabricação de dispositivos eletrônicos, para o qual é usado
ainda hoje.
O termo excimer é derivado da expressão excited dimers (dímeros
excitados), que reflete a forma como o laser funciona: através
do estímulo eletrônico de gases reativos, como cloro e flúor,
misturados a gases inertes como argônio, criptônio ou xenônio,
é produzida luz ultravioleta. Essa luz pode realizar alterações
microscopicamente precisas em diversos materiais. E, por não
produzir calor nem danificar a região próxima a sua aplicação,
o laser excimer é conhecido como laser frio.
No início dos anos oitenta, três cientistas do laboratório de
pesquisa Thomas J. Watson da IBM nos Estados Unidos – James
Wynne, Samuel Blum e Rangaswamy Srinivasan - pesquisavam
novas formas de utilização do laser excimer, recém adquirido pelo
laboratório. Devido às características citadas do laser excimer, os
cientistas se perguntavam qual seria o resultado da sua aplicação
em tecidos humanos ou animais. E os primeiros testes foram
realizados em sobras do peru do jantar de Ação de Graças de
um dos cientistas, com resultados altamente positivos, em que
cortes extremamente precisos na carne, ossos e cartilagens do
peru foram obtidos sem danos à região próxima da aplicação do
laser. Como forma de demonstrar o resultado, o time produziu
uma imagem ampliada de um fio de cabelo humano com a
palavra IBM gravada através da aplicação do laser excimer.
Essa imagem foi publicada em todo o mundo, iniciando diversas
discussões sobre a utilização dessa descoberta em diferentes
áreas da medicina, como cirurgias de cérebro, ortodontia,
ortopedia e dermatologia. Ao mesmo tempo, cirurgiões
oftalmologistas estavam à procura de alternativas para as técnicas
existentes de cirurgias oculares. O procedimento com bisturi
não era preciso, danificava permanentemente a córnea e exigia
um longo tempo de recuperação dos pacientes.
Através de pesquisa colaborativa entre a IBM e oftamologistas
do Centro Médico Presbiteriano de Columbia, foi feito um estudo
em 1983 introduzindo o uso do laser excimer para remodelagem
da córnea humana. Esse estudo iniciou um programa mundial
de pesquisas, culminando em 1995 com a aprovação das
autoridades americanas para o primeiro sistema comercial de
cirurgias refrativas baseadas em laser.
Hoje os dois principais tipos de cirurgia da córnea por laser
excimer são as cirurgias fototerapêuticas, conhecidas como
PTK e utilizadas para remoção de tecido da córnea de modo
a corrigir alguma doença ocular, como úlceras de córnea, e
as cirurgias fotorefrativas, utilizadas para remover tecido da
córnea para corrigir um problema de refracção, como miopia,
hipermetropia e astigmatismo. As principais técnicas de cirurgias
fotorefrativas são a PRK e a LASIK. A técnica PRK exige um
tempo de recuperação grande, estimado em 4 a 8 semanas,
e é necessária a utilização de lentes de contato para proteção
da córnea nos primeiros dias.
Já a técnica LASIK (laser-assisted in-situ keratomileusis), a
mais popular cirurgia ocular realizada no mundo, possibilita a
rápida recuperação dos pacientes, estimada em um a dois dias,
não exige a utilização de lentes de contato para o processo
de recuperação, e possui altíssimo percentual de efetividade,
eliminando a necessidade de utilização de óculos e lentes de
contato em mais de 90% dos casos.
Quem diria que uma descoberta como essa começou a partir da
curiosidade de três cientistas e um simples peru? É a inovação
a serviço da sociedade.
Para saber mais:
http://www.ibm.com/ibm100/us/en/icons/excimer/
34
Technology leadership council Brazil
vivemos em um mundo cada vez mais insTrumenTado
Antônio Gaspar
O mundo está cada vez mais instrumentado,
interconectado e inteligente. Nesse contexto,
as novas gerações de tecnologias em ins-
trumentação fazem seu papel como um dos
pilares que preconizam um Smarter Planet. Digo
“novas”, pois esse conceito iniciou-se com a revolução industrial.
Até a década de oitenta, a palavra instrumentação nos remetia
a conceitos díspares que iam de algo relativo a música, cirurgia
(instrumentação cirúrgica) e, menos conhecida, uma tal de
instrumentação industrial. Foi justamente essa que evoluiu a
ponto de fazer parte de nossas vidas, constantemente e de
forma onipresente.
Nas instalações industriais, seu papel está relacionado aos
sistemas de controle e automação, os quais são constituídos por
três componentes básicos: sensores, controladores e atuadores.
Os sensores são responsáveis pela captação das chamadas
“variáveis medidas” (temperatura, nível, pressão etc). Agindo como
transdutores, os sensores convertem a dinâmica física dessas
variáveis em sinais de telemetria e os transmitem através de
protocolos de comunicação padronizados, em formato analógico
(ainda muito usados) ou digital.
Os controladores são os receptores dos sinais de telemetria
dos sensores e são responsáveis por aplicar algoritmos de
correção (principio básico do “mede, compara, computa e
corrige”), tomando-se referenciais preestabelecidos para a
tomada de decisão.
Os atuadores são os dispositivos que recebem os comandos
vindos dos controladores. Seu papel é atuar sobre uma “variável
manipulada” (ex: vazão de água), a fim de obter resultados
sobre uma “variável medida” a ser controlada (ex: nível da água
na caldeira).
Esses sistemas ultrapassaram as fronteiras das instalações
industriais. A engenharia de materiais e miniaturização de
circuitos eletrônicos – hoje o planeta tem mais de 1 bilhão de
transistores por ser humano – trouxeram esses conceitos básicos
para aplicação em controle de dispositivos muito mais próximos
de nós do que imaginamos. A amostra mais representativa disso
está nos automóveis.
Na década de noventa, surgiram os carros com injeção
eletrônica no Brasil, nos quais os sistemas eletromecânicos
foram substituídos por uma malha de sensores (rotação,
velocidade, temperatura etc), atuadores (bicos injetores, etc)
e, não menos importante, o módulo central de controle, um
verdadeiro microcomputador embarcado (nada a ver com o
tal “computador de bordo”). Hoje, seu carro pode ter mais de
100 milhões de linhas de código embarcado. A propósito, você
já pensou em fazer um upgrade de software nele? É isso que
ocorre em alguns recalls feitos pelas montadoras.
A instrumentação foi além das aplicações automotivas e começou
a fazer parte do cotidiano urbano. Estações meteorológicas
tradicionais passaram a integrar um grid de controle climático
urbano. Dados sobre temperatura, pressão barométrica, umidade,
velocidade e sentido dos ventos são transmitidos a centros de
controle meteorológicos por meio de telemetria via 3G, wi-fi,
cabos ou rádio. Nas vias de grande concentração de tráfego,
as câmeras de monitoração deixaram de ser simplesmente
transmissoras de imagens e passaram a representar fontes
de dados para sistemas inteligentes de vigilância digital que
podem identificar padrões de eventos, alertar e tomar decisões
sobre o controle do tráfego. Outros sistemas são dotados de
algoritmos de reconhecimento facial, capazes de identificar,
com precisão, pessoas relacionadas em um banco de dados.
E, através de microfones acoplados, as tecnologias de análise
de áudio são capazes de identificar disparos de armas de fogo
e emitir alertas à policia.
Enfim, para quem assistiu ou leu Minority Report ou 1984, temos
uma materialização da ficção. Fora das telas e dos livros, resta-
nos aplicar a tecnologia para o bem comum, visando a um
planeta melhor e mais inteligente.
Para saber mais:
http://www.ibm.com/smarterplanet
35
Technology leadership council Brazil Technology leadership council Brazil
especial cenTenário da iBm: elemenTar, meu caro waTson
José Luis Spagnuolo
De tempos em tempos acontece um salto na indústria de TI que
transforma todo o futuro e modifica a perspectiva do passado.
Foi assim com a introdução do IBM S/360, com o surgimento
da computação pessoal e também com o advento da Web.
No começo deste ano assistimos ao que pode se tornar uma
transformação gigantesca na maneira como os computadores
poderão participar da vida humana. Um computador chamado
Watson participou, nos Estados Unidos, de um programa de
auditório em um jogo sobre conhecimentos gerais, contra os dois
maiores campeões da história do programa em anos anteriores.
O Watson tinha que selecionar temas, entender linguagem natural
e em questão de segundos, tentar responder corretamente às
perguntas antes de seus oponentes humanos.
A vitória do Watson foi esmagadora. O que mais chamou a
atenção foi a vastidão de conhecimentos e a capacidade de
interpretação necessárias para se ter sucesso nesse tipo de
jogo, pois uma vez iniciado, o Watson não podia ter contato ou
acesso a informações externas e sequer seus programadores
podiam tocá-lo ou acessá-lo remotamente.
Por incrível que pareça, essa máquina nao dispõe de nenhum
hardware ou software especial. É baseada na tecnologia IBM
Power 7 rodando em Linux, com chips de memória comuns, com
armazenamento de dados em discos padrão IBM DS8000, tudo
utilizado em larga escala por diversas empresas ao redor do
mundo. O que se pode destacar é a quantidade de processamento
do Watson, pois foram 90 servidores Power 750 configurados em
cluster, cada um com 32 núcleos de processamento POWER7
operando a 3.55 GHz e uma memória RAM de 16 Terabytes. Isso
tudo resultou em uma capacidade extraordinária de execução
de 80 Teraflops (trilhões de operações por segundo) utilizada
para o entendimento, pesquisa, recuperação, classificação e
apresentação das informações.
O grande diferencial do Watson é o DeepQA, uma arquitetura de
sistema probabilístico inventada pela IBM, que usa algoritmos
de processamento analítico massivamente paralelos. Mais de
cem técnicas diferentes foram usadas para analisar a linguagem
natural, identificar as fontes de informação, gerar as hipóteses,
achar e classificar as evidências e combinar e priorizar as
respostas. A maneira como essas técnicas foram combinadas no
DeepQA trouxeram agilidade, precisão e clareza no encontro das
respostas. O Watson representou um verdadeiro salto quântico
na concepção, aplicação e desenvolvimento da Inteligência
Artificial. E, após o jogo, as primeiras aplicações práticas na
sociedade já começaram a surgir.
No campo da medicina, está em curso uma revolução no
diagnóstico e prescrição de tratamentos. Existem milhões de
sintomas e distúrbios possíveis, fazendo com que um médico
acerte, em media, 50% dos seus diagnósticos e consiga lembrar-
se de apenas 20% das melhores práticas para os tratamentos
corretos. A indústria de saúde acredita que o Watson poderá
elevar o número de acertos para mais de 90% no diagnóstico e
terapia, melhorando a vida dos pacientes, reduzindo os custos
para hospitais e governos, permitindo, portanto, que uma parte
maior da população tenha acesso a saúde de melhor qualidade.
Outra possibilidade de aplicação prática seria a do Watson atuar
como uma central de atendimentos. Através do entendimento da
linguagem natural e do acesso aos dados dos usuários, o Watson
poderia responder a questões e disparar ações necessárias
para satisfazer aos clientes de maneira rápida e correta.
Estamos apenas começando a avaliar as transformações que
o Watson poderá gerar em nossas vidas nos próximos anos.
Mas uma certeza já está estabelecida, a indústria de TI nunca
mais será a mesma.
Para saber mais:
http://www.ibm.com/ibm100/us/en/icons/watson/
http://www.ibm.com/innovation/us/watson/
http://ibm.com/systems/power/advantages/watson
36
Technology leadership council Brazil
impacTos da revolução mulTi-core no desenvolvimenTo de sofTware
Thadeu de Russo e Carmo
Nos últimos anos, o aumento da
velocidade dos processadores
passou, por questões físicas, a não
mais acompanhar o aumento da
quantidade de transistores. Por conta
dessa e de outras limitações, a busca
por ganhos de desempenho levou a
diversas abordagens, a se destacar
a construção de processadores com
múltiplos núcleos.
Atualmente os processadores com múltiplos núcleos, popu-
larmente conhecidos como multi-core, estão cada vez mais
comuns em computadores pessoais, não estando limitados
somente a desktops e notebooks, uma vez que ganharam
presença na fabricação de tablets e videogames. Por exemplo, o
processador Cell desenvolvido em conjunto pela IBM, Toshiba e
Sony está presente no Sony Playstation 3. Os consoles Microsoft
Xbox 360 e Nintendo Wii também utilizam processadores
baseados na tecnologia IBM Power com multi-core.
Processadores com múltiplos núcleos impactam conside-
ravelmente a maneira com que programas são escritos, já
que não é mais possível usufruir naturalmente do aumento de
performance de seus clocks. Para que os programas possam
usufruir dos ganhos de desempenho, precisam ser escritos de
modo que possam ser distribuídos, pelo sistema operacional,
de forma concorrente entre os núcleos do processador.
Escrever programas para que sejam executados de forma
concorrente não é uma tarefa fácil. Podemos imaginá-los como
programas formados por vários outros programas menores,
os quais muito provavelmente vão compartilhar informações
entre si, o que nos leva a pensar em como sincronizar o acesso
de leitura e escrita dessas informações. Ademais, com essas
ações ocorrendo em paralelo é impossível saber com certeza
a ordem na qual serão executadas. Para complicar um pouco
mais, a maioria das atuais linguagens de programação e dos
ambientes de desenvolvimento de sistemas não é adequada
ao desenvolvimento de sistemas concorrentes.
Em linguagens como Java, C++ e C#, o controle de acesso a
uma região compartilhada de memória é feito através de travas
(conhecidas como “semáforos”). Contudo, o uso dessas travas,
além de ser complicado, possui limitações e cria situações
propensas a deadlocks, ou seja, situações de impasse que não
permitem que o sistema prossiga com a execução.
O paradigma de programação funcional, que por muito tempo
foi considerado muito teórico para o desenvolvimento de
aplicações comerciais, vem ganhando, já há alguns anos, um
maior interesse por parte do mercado. Esse interesse se dá por
conta de que as linguagens funcionais, tais como Erlang e Haskell,
possuem características apropriadas para o desenvolvimento de
sistemas concorrentes. Diferente das linguagens imperativas, que
favorecem a mutabilidade de dados, as linguagens funcionais se
baseiam em aplicações de funções e recursão. Podemos pensar
em como executar um loop sem alterar o valor de nenhuma
variável, inclusive das que controlam o loop. Existem linguagens
funcionais e concorrentes, como Scala e Closure, que rodam
em JVMs (Java Virtual Machines) e interroperam naturalmente
com a plataforma Java.
Estamos passando por uma mudança de paradigma, assim
como ocorreu com a orientação a objetos. O desenvolvimento
de algoritmos não sequenciais está cada vez mais comum.
Abstrações da programação concorrente (por exemplo o uso de
atores e de memória transacional em software) já estão marcando
mais presença nas linguagens de programação. As linguagens
funcionais estão cada vez mais próximas do mundo corporativo
e o modo como os desenvolvedores de sistemas devem passar
a endereçar os problemas está mudando, mais uma vez.
Para saber mais:
http://www.gotw.ca/publications/concurrency-ddj.htm
http://www.erlang.org
http://haskell.org
37
Technology leadership council Brazil Technology leadership council Brazil
especial cenTenário da iBm: a iBm e a inTerneT
Leônidas Vieira Lisboa
Vários acontecimentos contribuíram para a evolução da Internet,
transformando-a na rede global que transporta diversas mídias
e serviços e tornou-se um ícone dos últimos 100 anos, mudando
os negócios das corporações e a vida das pessoas.
Para entender melhor esse ícone, vale a pena navegar brevemente
por alguns fatos importantes que foram parte de sua história e
observar como a IBM esteve presente neles.
1. A ARPANET (Advanced Research Project Agency Network
- 1969) e a NSFNET (National Science Foundation Network -
1986) foram redes pioneiras que conectaram computadores
a longas distâncias, provenientes de projetos com finalidades
militares e científicas nos Estados Unidos, respectivamente.
A ARPANET introduziu alguns conceitos importantes como
redundância e transmissão por pacotes, ao passo que a NFSNET,
que posteriormente absorveu os nós da rede ARPANET quando
essa foi dissolvida, criou o backbone que deu origem à Internet.
A IBM participou ativamente na NSFNET em conjunto com
a operadora MCI, o Estado de Michigan e um consórcio de
universidades norte-americanas. Muitas tecnologias inovadoras
e novos produtos foram desenvolvidos utilizando-se o protocolo
TCP/IP, sob uma forte disciplina de gerência de projetos. No
início a NSFNET interligou cerca de 170 redes nos EUA e já em
1995 alcançou 50 milhões de usuários em 93 países. A partir
desse momento ocorreu a transição comercial dessa rede para
as operadoras de telecomunicações.
2. Quando o IBM Personal Computer (IBM 5150) foi anunciado
em 1981, ele se tornou o produto líder na transformação que
estendeu as fronteiras da computação ao grande público. A
presença do PC em lares, escolas e empresas tornou-o o
dispositivo que popularizou a Internet na década seguinte. O
IBM PC trouxe o conceito de arquitetura aberta para os micros
através da publicação do seu projeto, permitindo que outras
empresas criassem software e periféricos compatíveis com essa
plataforma. Atualmente, a maioria dos computadores pessoais
ainda segue esse padrão aberto. Por essa razão, o IBM PC foi
um marco na história dos computadores pessoais, as máquinas
que possibilitaram o uso em massa dos serviços da Internet,
como o email e a World Wide Web.
3. Em meados dos anos noventa o termo “e-business” representou
a materialização de uma estratégia da IBM para mostrar ao
mercado como reunir serviços e tecnologia para fazer negócios
através da Internet, através de uma visão “network-centric”, voltada
à Web. Talvez, essa tenha sido a contribuição mais importante
da IBM para a evolução da Internet, elevando-a ao status de
infraestrutura global necessária aos negócios do século XXI .
Foi o início da era das transações eletrônicas via Internet, hoje
tão comuns nos bancos e nas lojas virtuais.
A IBM criou ainda várias tecnologias que ajudaram a Internet a se
estabelecer como ferramenta essencial para a era da informação.
Isso ocorreu, por exemplo, com o advento da plataforma de
software Websphere, que permitiu a integração de diversos
sistemas à Web e do World Community Grid, onde se mostrou
como a Internet pode ser aplicada de forma inteligente em
projetos de larga escala e apoiar iniciativas sociais globais.
Se é verdade que ao refletir sobre o passado é possível planejar
melhor o futuro, a reflexão sobre as contribuições da IBM para a
evolução da Internet nos faz pensar não somente nas inovações
já introduzidas e seus impactos, como também nos permite
vislumbrar um futuro de progresso e benefícios que a tecnologia
ainda poderá trazer à humanidade.
Para saber mais:
http://www.ibm.com/ibm100/us/en/icons/internetrise/
http://www.ibm.com/ibm100/us/en/icons/worldgrid/
http://www.ibm.com/ibm100/us/en/icons/ebusiness/
38
Technology leadership council Brazil
governança, risco e conformidade
Hugo Leonardo Sousa Farias
Ao longo dos anos, a Tecnologia da Informação se tornou a
espinha dorsal para o negócio de muitas empresas e deixou de
ser uma opção, tornando-se um diferencial competitivo. Entretanto
essa dependência exige muitos cuidados, tais como garantir
que os investimentos em TI gerem valor ao negócio, que os
processos de TI sejam eficientes e que a disponibilidade das
operações seja mantida, além da necessidade de aderência
aos processos contratuais, aos mecanismos regulatórios e à
legislação vigente.
Para endereçar esses desafios, as empresas recorrem cada
vez mais aos modelos e frameworks de Governança, Gestão
de Riscos e Conformidade (Compliance) ou simplesmente GRC.
Esses termos por muito tempo viveram em “ilhas”, como se
cada um observasse o outro a partir da sua respectiva “praia”, e
raramente uniam seus esforços, recursos, processos e sistemas
para alcançar objetivos comuns. Felizmente isso vem mudando,
pois tratar de GRC sob uma perspectiva integrada tem chamado
a atenção de muitas empresas.
De acordo com o ITGI (IT Governance Institute), Governança
é o conjunto de responsabilidades e práticas exercidas pelos
executivos e pela alta direção da empresa com o objetivo de
fornecer orientação estratégica, assegurando que os objetivos da
companhia sejam alcançados e que os recursos sejam utilizados
de forma responsável.
Existem padrões e guias internacionais de boas práticas de
governança de TI que podem ser utilizados como referência,
tais como: COBIT (Control Objectives for Information and related
Technology), um framework de boas práticas de TI; ITIL (IT
Infrastructure Library), um conjunto de melhores práticas para o
gerenciamento de serviços de TI; ISO/IEC 27001, um padrão de
sistema de gestão de segurança da informação, dentre outros.
A definição de Gestão de Riscos do Risk IT Framework,
determina que essa atividade deve envolver todas as unidades
de negócios da organização para prover uma visão abrangente
de todos os riscos relacionados à TI. Uma estrutura corporativa
de gerenciamento de riscos (Enterprise Risk Management)
proporciona um maior alinhamento com o negócio, eficiência
dos processos de TI, maior disponibilidade das operações com
uma consequente redução de incidentes, tudo isso gerando valor
ao negócio. Em empresas prestadoras de serviços, a gestão
de riscos pode representar oportunidades de novos negócios.
Por fim, Conformidade é o ato de aderir e demonstrar adesão a leis
e regulamentos externos, assim como a políticas e procedimentos
corporativos. Controles internos devem ser implementados para
garantir ainda a eficiência das operações e a confiabilidade dos
relatórios financeiros. As “não-conformidades” custam caro,
podem gerar impacto financeiro e afetar a imagem da empresa.
Uma pesquisa da Advanced Market Research com empresas
nos Estados Unidos, estimou os investimentos em GRC, no ano
de 2010, em US$ 29,8 bilhões, um crescimento de 3,9% em
relação ao ano anterior.
Governança de TI, Gestão de Riscos e Conformidade não devem
ser tratados como disciplinas isoladas pois a gestão centralizada
dessas atividades é uma tendência irreversível. Além disso,
GRC é parte integrante da gestão corporativa e proporciona o
alinhamento estratégico com o negócio e a entrega de valor, além
de uma melhor gestão dos recursos e do desempenho da TI.
Com a crescente exigência do mercado (interno e externo)
por transparência e responsabilidade, as melhorias em GRC
representam um diferencial competitivo que pode proporcionar
crescimento e abertura de novos mercados para as empresas.
É a convergência de três áreas de conhecimento fazendo a
diferença. 1 + 1 + 1 nesse caso é muito mais do que 3.
Para saber mais:
http://pt.wikipedia.org/wiki/GRC
http://www.isaca.org/Knowledge-Center/
39
Technology leadership council Brazil Technology leadership council Brazil
especial cenTenário da iBm: iBm Tape: queBrando Barreiras no armazenamenTo de dados
João Marcos Leite
Que a quantidade de dados digitais gerados no mundo cresce
exponencialmente todos já sabemos. O número de fontes de
informações é cada vez maior, pois existem computadores
conectados em rede em quase todos os lares, escolas e empresas,
e se considerarmos os smartphones, tablets, videogames e
demais dispositivos eletrônicos existentes em nosso cotidiano,
a lista dos potenciais geradores de dados torna-se realmente
muito extensa.
Esses dados, quando relacionados aos negócios, passam
a ser fundamentais para a sobrevivência das empresas,
independentemente de seu porte. Daí surge a questão: onde
guardar tanta informação? E se esses dados forem perdidos
por algum motivo, como recuperá-los de forma rápida, com o
mínimo de impacto nos negócios?
Há mais de meio século, uma invenção da IBM responde a
essas perguntas: as unidades de fita magnética. Elas têm
desempenhado um papel essencial na proteção dos dados
empresariais, principalmente aqueles que necessitam ser retidos
por longos períodos de tempo, a um custo menor do que o
armazenamento em discos magnéticos.
O primeiro modelo comercial anunciado pela IBM em 1952, a 726
Magnetic Tape Recorder, marcou a transição do armazenamento
de dados em cartões perfurados para um meio magnético. No
início, o maior desafio foi convencer os usuários, que antes podiam
inspecionar visualmente os registros através das perfurações
dos cartões, a aceitarem um novo meio físico onde não se podia
mais ver os dados a olho nu. Somente após os usuários se
acostumarem com essa quebra de paradigma do armazenamento
digital é que foi possível começar o desenvolvimento de outros
dispositivos magnéticos, como os discos IBM RAMAC e todos
os demais que vieram desde então, impulsionando fortemente
o desenvolvimento da Tecnologia da Informação.
Diversas tecnologias criadas pela IBM para as unidades de fita
foram posteriormente adotadas nos discos magnéticos, como os
cabeçotes thin-film, a utilização de memória cache intermediária
para aumentar o desempenho na transferência de dados com
os servidores e a adoção de microcódigo dentro do dispositivo.
Assim, as funcionalidades que foram desenvolvidas primeiramente
para as unidades de fita também ajudaram significativamente
na evolução tecnológica dos subsistemas de disco.
A influência que o armazenamento de dados em fitas magnéticas
trouxe ao mundo computacional foi mais além: criou o conceito
de armazenamento hierárquico, com dados online e offline a
custo variável; levou ao nascimento da mais importante aplicação
de gerenciamento de dados: o backup/restore; viabilizou a
portabilidade de dados para proteção remota e integração
entre empresas; e permitiu o arquivamento de dados por longa
duração para atendimento às regulamentações de retenção
de informações.
Nesses quase sessenta anos, nos quais saltamos dos meros
2 MB por carretel de fita (no modelo IBM 726) para 4TB por
cartucho no modelo mais recente (IBM TS1140) e a taxa de
transferência de dados passou de apenas 12,5 kB/s para 800
MB/s (sem considerar a compressão), foram muitas as conquistas
dos engenheiros que participaram no desenvolvimento dessa
tecnologia, com ideias inovadoras e revolucionárias que
trouxeram para a TI a possibilidade de processar e proteger
cada vez mais informações, bens intangíveis e de grande valor
para as empresas.
As unidades de fita evoluíram de várias formas e ainda
permanecem como o meio de armazenamento de dados com
a melhor relação custo/benefício, de modo flexível e escalável,
para atender às maiores demandas das aplicações de negócio,
quebrando barreiras a cada nova geração. Essa tecnologia tem
mantido o fôlego por quase sessenta anos, e promete ainda
muito mais para, pelo menos, os próximos quarenta.
Para saber mais:
www.ibm.com/systems/storage/tape/index.html
www.ibm.com/ibm/history/exhibits/storage/storage_fifty.html
40
Technology leadership council Brazil
o novo Bug do milênio?Sergio Varga
A nova versão do protocolo IP (Internet Protocol) que vem a
substituir a versão IPv4 atualmente vigente, será a IPv6. Esta
mudança permitirá a conexão de cerca de 3,4x1038 endereços
ao invés dos 4 bilhões de endereços suportados hoje. Conforme
descreveu Luís Espínola no primeiro livro de Mini Paper, o fim
acabou chegando mesmo antes de 2012, pois em Fevereiro
de 2011 os últimos blocos livres de endereçamento IPv4 foram
alocados pela Internet Assigned Numbers Authority (IANA).
Isso significa que qualquer instituição que necessite de um novo
endereço IP oficial, conseguirá somente com um dos cinco
orgãos regionais que, porventura, ainda detenham endereços
disponíveis. Ao término dessa reserva, as empresas
terão que buscar alternativas tais como outsourcing,
colocation (hospedagem de computadores em
outra empresa), etc.
Há quem fale que esse será o novo bug do milênio.
Os profissionais de TI que estavam no mercado
de trabalho antes de 2000 devem se lembrar do
frisson que ocorreu nos últimos anos antes da
virada do ano 2000, em especial no final de 1999.
Na maioria dos sistemas, o ano era codificado
com dois dígitos e isso poderia causar grandes
problemas naqueles que utilizavam datas para
efetuar cálculos. Por exemplo subtrair 99 de 00 era
obviamente diferente de subtrair 1999 de 2000. Logo,
foi necessário aumentar o campo “ano” para quatro dígitos, o
que causou muita correria para alterar os sistemas legados. No
final das contas não se soube de grandes problemas ocorridos
após aquele tão esperado Reveillón.
Mas o que está acontecendo hoje? Temos praticamente toda a
Internet utilizando IPv4 e sem a possibilidade de crescimento no
seu atual espaço de endereçamento. Logo, torna-se necessário
começar efetivamente a migração para o IPv6. Segundo o
levantamento efetuado pela ARBOR Networks, o volume de
tráfego IPv6 em 2008 foi de 0,0026% do total e no ano seguinte
ainda se manteve nessa ordem. Ainda existem milhares de
aplicações que utilizam o IPv4, mas por outro lado, as grandes
empresas já estão disponibilizando produtos compatíveis com
IPv6. Como ficam então os programas, aplicativos, sistemas e
websites que ainda não suportam o protocolo IPv6? Visualiza-se
uma enorme oportunidade para serviços, venda de hardware e
software, consultoria, desenvolvimento e treinamento para apoiar
as empresas que necessitarão adequar suas aplicações ao
novo protocolo. Não podemos nos esquecer ainda do potencial
que essa conversão trará, pois todo equipamento que suporte
o protocolo IP, tais como celulares, televisões, computadores,
eletrônicos, gadgets e o que mais se imaginar precisará utilizar
o novo protocolo. Abre-se então um leque inimaginável de
oportunidades.
Uma boa saída seria converter as aplicações para
o IPv6 através de formas alternativas, utilizando-
se de recursos tais como proxies, gateways e
NAT (Network Address Translation), mapeando
endereços inválidos para endereços oficiais, no
entanto isso implicaria em uma possível perda
de desempenho das aplicações, causada pela
criação de hops adicionais de tráfego.
O IPv4 durou cerca de 30 anos e, por enquanto,
não se consegue nem pensar que algum problema
de esgotamento venha a ocorrer com o IPv6, pois,
nesse caso, mesmo se cada um dos 7 bilhões
de habitantes da Terra tivessem 50 dispositivos
com acesso à Internet, ainda seria possível o
endereçamento. Mas, no ritmo do avanço tecnológico, não
seria surpresa se daqui a 80 anos, por exemplo, os endereços
voltarem a se esgotar.
Diferente do bug do ano 2000, a adoção do protocolo IPv6 é um
problema menos crítico pois, aparentemente, há tempo suficiente
para a migração. É provável que os setores de entretenimento
e marketing venham a impulsionar essa mudança, pois são os
que necessitam atingir grandes volumes de consumidores e
o IPv6 poderá ser uma solução para agilizar esse processo.
Para saber mais:
http://inetcore.com/project/ipv4ec/index_en.html
http://validador.ipv6.br/index.php?site=www.ipv6.br&lang=pt
41
Technology leadership council Brazil Technology leadership council Brazil
manuTenções de sisTemas na velocidade do negócio
Luiz Phelipe A. de Souza
Imagine o seguinte cenário: O Natal está chegando, época
de maior faturamento de uma grande empresa de varejo, e as
expectativas de vendas são altas. Essa empresa, analisando
seu mercado, percebe que ações do concorrente começam a
ter impactos nos seus resultados e que, seguindo a tendência,
os números esperados para o fim do ano podem estar
comprometidos. A estratégia precisa ser revista. Regras do
negócio precisam ser modificadas para tentar reverter o quadro.
A equipe de TI precisa ser envolvida. Os sistemas que suportam
a operação da empresa precisam considerar as novas regras e
é preciso alterar seus códigos-fonte. Sobrecarregada por várias
outras de-mandas, a equipe de TI dá prazos que não atendem
às necessidades dos usuários.
Um cenário similar a esse pode ser identificado em todas as
organizações que hoje dependem de sistemas de TI para
funcionar. Impasses como esse e questões de como os sistemas
de TI podem ser mais flexíveis o suficiente para garantir a agilidade
que as áreas de negócio precisam, podem ser equacionadas com
uma separação das lógicas e regras que fundamentam o negó-cio
(que, normalmente, demandam muito de manutenções por parte
dos usuários finais) do restante das funcionalidades do sistema.
O componente onde as regras podem ser implementadas e
mantidas deve prover mecanismos de fácil manuseio, inclusive
por pessoas não diretamente envolvidas no desenvolvimento
dos demais componentes da aplicação.
Atualmente, o mercado de TI – clientes e fornecedores – tem
adotado essa abordagem em ferramentas de gestão de regras
de negócio (BRMS – Business Rules Management Systems).
Em linhas gerais, a ideia original desse tipo de ferramenta é
disponibilizar um repositório controlado onde todas as regras
de negócio podem ser criadas, mantidas e lidas por pessoas
envolvidas na definição dessas regras (e não, invariavelmente,
por profissionais de TI, conhecedores de linguagens de
programação). Ainda, todo esse conjunto de regras publicados
pode ser, a qualquer momento, consumido por sistemas legados,
independente da tecnologia nas quais foram originalmente
desenvolvidos.
Obviamente, alguns requisitos são primordiais ao correto
funcionamento de um sistema de regras de negócio. O primeiro
– e principal – é na forma de escrita dessas regras. Para que
usuários “não técnicos” possam escrever regras que consigam
ser interpretadas por sistemas de TI, as ferramentas de gestão
de regras fornecem mecanismos e funcionalidades para criação
de um vocabulário próprio para a escrita de regras de negócio.
A escrita de uma regra, com um vocabulário criado a partir do
jargão da organização, deve ser algo tão simples e natural
como: “se a idade do motorista for menor que 20 anos então
considere o motorista inexperiente”.
Ponto fundamental também considerado por especialistas nesse
tipo de tecnologia é a governança e controles de acesso aos
artefatos criados a partir da ferramenta. Para uma adoção com
baixo risco para o negócio da empresa, acessos devem ser
permitidos (ou negados) até o momento de publicação quando a
regra alterada passaria a vigorar (sendo consumida por sistemas
legados). Esse tipo de funcionalidade permite uma adoção mais
segura, evitando mudanças de regras com imediato impacto
nos sistemas da organização.
A implementação de uma ferramenta de regras de negócio em
sistemas complexos não é tarefa das mais simples. O esforço
de extração de lógicas de negócio de sistemas antigos, de
regulamentações e normas ou até mesmo da cabeça de
usuários, requer muita análise e atenção. Os benefícios podem
ser grandes. A medição dos ganhos pode ser feita com base
na velocidade como o negócio reage a demandas urgentes
ou mesmo nas atividades de TI que pode ter seu backlog de
manutenções reduzido.
Qual o desenvolvedor de aplicações que nunca ouviu um pedido
de alteração com um comentário do tipo: “Deve ser rápido.
É só incluir um IF...” ?
Para saber mais:
http://en.wikipedia.org/wiki/Business_rules
http://www.businessrulesgroup.org
http://www.brcommunity.com
42
Technology leadership council Brazil
escalaBilidade e gerenciamenTo em cloud compuTing
Edivaldo de Araujo Filho
No modelo de Computação em Nuvens (Cloud Computing) os
recursos computacionais ficam distribuídos física e virtualmente
por diversas localidades, tornando-se transparente aos
usuários onde seus dados são armazenados e suas aplicações
processadas. O crescente uso desse modelo vem modificando
o cenário atual dos negócios e desafiando os especialistas e
arquitetos de TI na construção dessa nova realidade, na busca
de redução de custos, melhorias no desempenho e aumento
da segurança e escalabilidade dos sistemas de informação.
O conceito de Cloud está há algum tempo em destaque
no mercado e já é uma realidade para muitas empresas,
principalmente de pequeno e médio
porte, as quais já migraram toda ou
parte de sua infraestrutura de TI para
a nuvem, contratando como serviço
a solução tecnológica de suporte
aos seus negócios. Nas grandes
corporações os CIOs também vêm
buscando fortemente virtualizar suas
infraestruturas, investindo, na maioria
das vezes, em nuvens privadas dentro
de seus próprios ambientes de TI
(Private Cloud).
Como a Cloud oferece alta esca-labilidade, tornou-se uma
solução viável para atender de forma inteligente à demanda
por automação requerida pelos negócios, associada a uma
utilização efetiva e otimizada dos recursos computacionais. O
tema da escalabilidade já foi tratado anteriormente no paradigma
computacional de Grid Computing, o qual já se preocupava
com o uso inteligente da infraestrutura de TI, especialmente
com relação à capacidade de expansão (excesso) e redução
(escassez) dos recursos tecnológicos, de acordo com o demanda
dos sistemas em operação.
Com o cenário de Cloud Computing, a escabilidade proporciona
um novo conceito, de crescimento elástico virtual e não físico do
Data Center. Para os clientes torna-se conveniente essa nova forma
de comercializar aplicações e dados, cujos volumes crescem e
diminuem de acordo com a situação. A escalabilidade evidencia
uma série de ganhos na infraestrutura de TI, principalmente no
que tange ao custo e à forma dinâmica de se expandir e retrair o
uso de recursos computacionais associados às necessidades
do cliente e com o máximo de precisão e transparência possíveis.
O gerenciamento tradicional da infraestrutura de TI sempre
apresentou um controle centralizado e físico das instalações
computacionais corporativas. Com o advento da Cloud, a TI
está sendo redesenhada para poder atender à demanda dos
negócios. A gerência desse novo ambiente está enfrentando o
desafio de não somente manter ativos os recursos operacionais,
mas em redefinir um modelo para sua monitoração em ambiente
híbrido, com parte da TI tradicional e parte virtualizada e em
nuvem, seja pública ou privada.
Gerenciar TI com Cloud Computing
pressupõe uma mudança de para-
digma na qual os itens de confi-
guração crescem ou diminuem de
forma acelerada e diversificada.
Ao se utilizarem nuvens públicas,
soma-se a isso a característica do
desconhecimento da localização física
dos recursos, acompanhada por um
modelo virtualizado e distribuído, que
exige um gerenciamento autonômico e descentralizado mas
focado nas aplicações de missão crítica e com impacto direto
no core business e nos serviços dos clientes.
A demanda crescente não só por infraestrutura, mas por
aplicações na nuvem impulsiona investimentos acentuados
em virtualização e automação dos ambientes de TI, sejam nos
provedores dos serviços de Cloud ou em grandes corporações
que estão buscando nuvens privadas. A busca por Cloud é
uma forma da TI atender ao crescimento do negócio, associado
a data centers cada vez mais complexos, e ainda manter a
conformidade com a consolidação de equipamentos, economia
de espaço e principalmente, redução de consumo de recursos
como energia e refrigeração.
Para saber mais:
www.eecs.berkeley.edu/Pubs/TechRpts/2009/EECS-2009-28.pdf
www.ibm.com/cloud-computing/
43
Technology leadership council Brazil Technology leadership council Brazil
a evolução da weB na direção dos negócios
Márcio Valverde
Como o leitor dos Mini Papers do TLC-BR pode notar, há uma
clara evolução nas tecnologias da Web, as quais caminham
fortemente em direção a proporcionar experiências cada vez
mais ricas, inteligentes e interativas aos usuários.
Em um mercado crescente e dinâmico como o atual, no qual
os usuários exigem cada vez mais velocidade e facilidade na
interação com as aplicações Web, é natural observar o surgimento
de novas tecnologias para atender a essas demandas.
A Web semântica, por exemplo, busca organizar o conhecimento
armazenado em arquivos e páginas da rede. Esse conceito
vem da compreensão da linguagem humana por parte das
máquinas, para a recuperação da informação. Algumas empresas
fornecedoras de tecnologia já oferecem funcionalidades da web
semântica em seus produtos, tornando-os capazes de otimizar
o fluxo de informações e gerar resultados mais inteligentes em
suas buscas, possibilitando aos seus clientes mais precisão e
agilidade na tomada de decisões.
Em outra vertente de desenvolvimento da Web, a busca pela
disponibilidade de dados conforme as necessidades de cada
usuário e pela transformação da informação em conhecimento
fizeram com que diversas empresas (como Apple, Google, IBM,
Mozilla, etc.), se unissem em um consórcio para colaborar na
construção da quinta geração da linguagem mais conhecida da
Internet, a HTML, que apesar de ter sido projetada para manter
a compatibilidade com as aplicações atuais, é uma linguagem
mais dinâmica e capaz de oferecer um ambiente mais estruturado
e seguro do que todas as suas versões anteriores.
Na HTML5 a simplicidade tomou o lugar dos antigos scripts
complexos e cheios de detalhes, e ainda por cima trouxe uma
série de novas funcionalidades abrangentes e interessantes,
tais como:
1. A possibilidade de localizar serviços e outros fins que estejam próximos à posição geográfica do usuário através de Geolocation;
2. O uso de Speech Input, bastante útil na acessibilidade de aplicações por parte de usuários com necessidades especiais;
3. Maior rapidez e agilidade no tráfego de streams de áudio e vídeo;
4. Inclusão de threads, chamadas de WebWorks, que per-mitem executar mais de uma atividade ao mesmo tempo em uma página web, reduzindo bastante o tempo de processamento e resposta.
Nesse ambiente em constante evolução, muitas empresas já
começam a repensar a maneira de construir suas aplicações Web
e como irão distribuir esses novos serviços. As possibilidades vão
desde a utilização de smartphones, tablets, TVs digitais interativas,
redes sociais e até computação em nuvem, permitindo que as
empresas usem a Web como plataforma de negócios e estreitem
cada vez mais a relação entre consumidores e fornecedores,
aumentando assim o potencial das oportunidades de negócios,
em uma escala global.
Não estamos diante de uma revolução, mas sim de uma evolução
na maneira de fazermos negócios, mas devemos ficar atentos
a esse “Admirável Mundo Novo”, o qual está se configurando
como um componente importante na construção de um planeta
mais inteligente, capaz de interligar povos e mercados em um
novo patamar.
Para saber mais:
http://www.youtube.com/watch?v=DHya_zl4kXI
http://www.youtube.com/watch?v=ei_r-WSoqgo
44
Technology leadership council Brazil
agilidade financeira em TiRodrigo Giaffredo
As empresas operantes no Século XXI têm, entre outros, o desafio
de se manterem modernas e inovadoras, num momento em
que a propagação da informação em alta velocidade, e o fácil
acesso a conteúdos técnicos, leva ao surgimento de uma nova
geração de pensadores criativos.
Quando se fala em modernização e inovação, tecnologia é
assunto recorrente. Ainda que ideias criativas nem sempre
esbarrem em componentes tecnológicos sofisticados, é fato
que organizações mais automatizadas, seja nas atividades
principais ou nas de suporte, lideram a disputa por mercados.
Tradicionalmente, os gastos com a
TI (Tecnologia da Informação) são
considerados despesas. Porém, as
empresas jovens e lucrativas
quebraram esse paradigma, ao
considerá-los como investimentos
importantes para o desbravamento
de mercados, criação de produtos,
e manutenção da competitividade.
Com isso, o papel da TI no desem-
penho financeiro corporativo, vem
migrando do status de coadjuvante
(mero centro de custos e provedor
de serviços), para o de agente de
mudança no sucesso financeiro
do negócio.
Para medir o desempenho da TI nas
organizações, é preciso entender que métricas isoladas não
contam toda a história. Avaliar os resultados das variações
horizontais (período corrente versus períodos anteriores) ou
verticais (gasto da TI sobre o total dos gastos) não é suficiente para
aferir o papel das áreas de tecnologia na eficiência corporativa.
No artigo “IT Key Metrics Data 2011” (Gartner, dezembro de 2010),
os autores, afirmam que é necessário “avaliar o desempenho da
TI no contexto da organização, a fim de comunicar corretamente
o valor e o significado da atuação dessa área no alcance dos
resultados.” Opinião semelhante é citada no relatório “Global
Banking Taxonomy 2010” (IDC Financial Insight, julho de 2010).
Partindo dessa premissa, as organizações eficientes devem
aferir o desempenho da TI, apoiadas no tripé “TI como % da
receita, das despesas, e da mão-de-obra”, compreendendo
assim o nível de intensidade da participação da área no
desempenho do negócio.
Vamos nos ater ao exemplo “Gastos com TI versus receitas
totais”, abordado no artigo supracitado, e representar grafi-
camente a comparação através de uma matriz (veja figura),
situando a interseção entre esses dois pilares em quadrantes
nas seguintes cores:
1. Amarela: receitas totais e gastos com TI movem-se na mesma
direção; caso a interseção ocorra no quadrante superior direito,
o ideal é que o gasto com TI varie menos em % do que a receita,
“acelerando” a lucratividade. Já no
caso de a interseção ocorrer no
quadrante inferior esquerdo, a
redução % do gasto de TI deve ser
maior do que a da receita, “freando”
a perda de margens.
2. Verde: receitas crescem e gastos
com TI diminuem. Aparentemente
perfeito, porém é importante ana-
lisar se o orçamento da TI está
sendo preterido na organização
(a chamada “miopia do gasto”, e
não economia de fato).
3. Vermelha: período crítico no qual
as receitas diminuem, e os gastos
com TI aumentam. Tempo de revisar
o orçamento da área, priorizando
investimentos criativos e com ótima relação de custo-benefício.
Essa é uma das possibilidades de utilização da análise financeira
multidimensional no âmbito da TI (outro exemplo é o Balanced
Scorecard, metodologia de medição e gestão de desempenho
organizacional através da utilização de indicadores financeiros,
comerciais, de processos internos e de aprendizado/crescimento),
e cabe aos executivos CxO (inclusive CIOs) combiná-las no intuito
de gerar informações preditivas sobre o mercado, e assegurar
longevidade e agilidade nos mais variados contextos.
Para saber mais:
http://www.gartner.com/DisplayDocument?id=1495114
http://www.idc-fi.com/getdoc.jsp?containerId=IDC_P12104
45
Technology leadership council Brazil Technology leadership council Brazil
gesTão de cusTos de TiAnderson Pedrassa
Entender e comunicar a produtividade da Tecnologia da
Informação em termos relativos a outras métricas de negócio é
obrigatório, segundo o Gartner. Tratar a dinâmica do investimento
em TI apenas como Percentual da Receita, métrica mais utilizada,
pode inviabilizar o entendimento de tendências importantes e
não reflete, de fato, a contribuição da TI para os resultados da
operação de uma empresa.
Como componente importante da equação da produtividade
da TI, a Gestão de Custos de TI tem a missão de medir para
gerenciar; medir para fazer mais com menos. Muitos gestores
sabem quanto custa a operação de TI (quanto se paga) mas,
por falta da transparência dos custos, veem a TI como uma
caixa-preta que gera gastos
significativos e crescentes. Dar a
visibilidade desses custos pode
revolucionar a forma como as
empresas consomem os recursos
(internos e externos) e aumentar o
foco nos investimentos em TI que, de
fato, contribuam para os resultados
dos negócios dessas empresas.
Para tanto, uma etapa importante
consiste na definição de processos
internos para identificar e medir os
fatores diretos e indiretos formadores
de custo. Esses gastos e desembolsos incluem despesas com
funcionários, hardware, software, espaço físico, contratos,
impostos, terceirização, energia elétrica, água, luz, telefone,
refrigeração, depreciações e amortizações.
Alguns gastos podem ser diretamente associados a um sistema,
aplicação ou serviço. Entretanto, despesas compartilhadas devem
seguir outro critério, normalmente o da proporcionalidade de
uso, no qual sistemas ou clientes que consomem mais recursos
compartilhados devem pagar mais. Esse rateamento eleva a
maturidade da gestão de custos de TI e por isso requer uma
nova métrica, chamada Custo Padrão, que define valores para
as unidades de recursos ou de serviços de TI, formando um
catálogo de preços no qual, por exemplo, constam o custo do
minuto de processamento, do gigabyte de armazenamento e
do kilobyte trafegado na rede. Outros valores tais como o custo
por transação de banco de dados, por timeout ou deadlock e
até por erro grave de programação, podem revelar aplicações
menos eficientes e que são grandes consumidoras de recursos.
O Custo Padrão possibilita uma base de comparação entre
áreas, unidades de negócios, localidades, depar-tamentos
e fornecedores, com seus respectivos esta-belecimentos e
acompanhamentos de metas de custos, podendo, inclusive, ser
utilizado com a finalidade de apoiar a elaboração de orçamentos.
Para se chegar ao Custo Padrão deve-se coletar o consumo
direto de recursos de TI, tais como o dos sistemas operacionais,
gerenciadores de bancos de dados, infraestrutura de Internet,
sistemas de correio eletrônico, servidores de rede e impressão
e qualquer outro sistema, aplicação ou appliance. O consumo
pode informar tempo de processamento, utilização de memória,
operações de entrada/saída (IOPS, Input/Output Operations
Per Second), armazenamento,
tráfego de rede, operações de
bancos de dados, entre outros.
De fato, tudo o que é consumido
pode ser registrado em arquivo e
mensurado para efeito de apuração
do Custo Padrão.
A Gestão de Custos de TI produz
dados que, explorados com o apoio
de ferramentas de BI (Business
Intelligence), permitem conduzir
simulações, previsões, apoiar o
Capacity Planning e aumentar a
eficiência operacional. Uma maior compreensão dos custos
de TI também lança luz sobre a questão da comparação entre o
custo para desenvolvimento versus o custo operacional total da
aplicação ou sistema, revelando que o primeiro perde importância
quando o ciclo de vida das aplicações aumenta para cinco ou
dez anos, por exemplo.
Uma Gestão de Custos de TI efetiva, ajuda a mostrar com números
a verdadeira contribuição da Tecnologia da Informação para o
resultado financeiro de uma empresa. Em tempos em que bons
motoristas têm desconto no seguro do carro e pessoas com
hábitos saudáveis passam a ter desconto no plano de saúde,
faz sentido que sistemas mais eficientes sejam recompensados
de alguma maneira.
Para saber mais:
http://www.gartner.com/technology/metrics/communicating-it-metrics.jsp
http://www.mckinseyquarterly.com/Unraveling_the_mystery_of_IT_costs_1651
46
Technology leadership council Brazil
fcoe, a inTegração das redes lan e sanAndré Gustavo Lomônaco
Há cerca de dez anos, artigos comparavam os sistemas de
telefonia tradicionais com os, até então, novos sistemas de
telefonia baseados no protocolo Internet (IP). Enquanto fatores
como baixo custo de aquisição e confiabilidade eram associados
aos sistemas tradicionais, salientava-se o retorno do investimento
dos sistemas de telefonia IP pela redução de custos através
da utilização dos mesmos meios já utilizados pela rede de
dados e também pela unificação da equipe de suporte com o
conhecimento de ambas tecnologias, eliminando-se distintas
equipes dedicadas.
Atualmente presenciamos a convergência entre outras duas
importantes tecnologias: as redes locais de dados (LAN) que
utilizam o protocolo Ethernet para o envio e recebimento de dados
e as redes locais de armazenamento de dados (SAN) que utilizam
o protocolo Fibre Channel (FC) para transportar comandos e
dados entre servidores e sistemas de armazenamento. Essa
integração, fundamentada em um novo protocolo denominado
Fibre Channel over Ethernet (FCoE), poderá trazer para a área
da Tecnologia da Informação impactos e benefícios semelhantes
aos que a telefonia IP trouxe nos últimos 10 anos.
Embora essas redes distintas possam ser integradas atualmente
com técnicas que utilizam protocolos de empacotamento de
comandos e dados, tais como os protocolos iSCSI, FCIP e
iFCP, o nível de integração e os benefícios obtidos através do
protocolo FCoE superam os das atuais técnicas de integração,
conseguidos ao se compartilhar em um único meio físico tanto
o tráfego de dados das redes locais quanto o de operações de
entrada e saída dos periféricos de armazenamento.
Atualmente um servidor que exija acessos redundantes a redes
necessita ser configurado com dois adaptadores de conexão à
rede de armazenamento (HBAs) e dois adaptadores adicionais
para a rede local de dados, isso sem considerar as demais
conexões para as interfaces de gerenciamento do equipamento.
No novo cenário de consolidação, habilitado pelo FCoE, todo
tráfego LAN e SAN passa a ser encaminhado através de um
novo adaptador denominado Converged Network Adapter (CNA),
obtendo-se vantagens na redução do número de adaptadores
em cada servidor, no consumo de total de energia elétrica, no
espaço físico requerido pelo servidor, na quantidade de switches
de rede e no cabeamento necessário. Esse novo adaptador
inclui o protocolo Ethernet que foi redesenhado para encapsular
e transportar também o tráfego do protocolo FC tornando-o
disponível para uso imediato por parte dos atuais equipamentos
de armazenamento de dados.
Como o overhead necessário para encapsular o tráfego de
um protocolo por dentro do outro gira em torno de 2% do total
trafegado, pode-se considerar que o desempenho geral, quando
se compara FC com FCoE, é praticamente o mesmo. E embora
o custo atual do adaptador CNA ainda seja superior ao do
adaptador HBA, essa diferença vem diminuindo com o tempo,
devido ao aumento nas vendas e na utilização dos adaptadores
CNA, especialmente em novas implementações.
Mas, principalmente para os profissionais não tecnicos de TI,
ainda pode ficar no ar a dúvida se a migração para essa nova
tecnologia não será muito demorada e difícil. De fato, além da
troca da tecnologia em si, será necessário formar profissionais
que detenham conhecimento de ambas as redes (LAN e SAN),
o que demandará esforços consideráveis, mas o retorno
desse investimento deverá ser rápido e compensador, uma
vez que a consolidação dessas redes permitirá atender de
forma mais otimizada os requisitos de segurança, desempenho,
escalabilidade e disponibilidade das aplicações que suportam
as áreas de negócio.
Para saber mais:
http://www.redbooks.ibm.com/redpapers/pdfs/redp4493.pdf
47
Technology leadership council Brazil Technology leadership council Brazil
poder, muiTo poder, de processamenTo
Fernando de Moraes Sprocati
Desde sua popularização no final dos anos noventa, os
computadores pessoais vêm tendo seu uso cada vez mais
diversificado. De meras máquinas eletrônicas de digitação até
centrais multimídia e multitarefa, foram incorporando cada vez
mais recursos e poder de processamento.
Um grande salto nesse poder de processamento veio com a
utilização de processadores específicos para lidar com vídeo,
tarefa bastante exigente principalmente em função dos jogos
com visuais cada vez mais realísticos.
Conhecidos pelo jargão “GPU” (Graphical Processor Unit),
os processadores gráficos possuem enorme capacidade
de processamento numérico e, atualmente, possuem muitas
centenas de núcleos, enquanto que as CPUs (mesmo aquelas
mais modernas) apresentam no máximo 16 núcleos — que até
podem ser “duplicados” com o mecanismo de hyperthreading.
E apesar das GPUs possuírem núcleos mais simples do que
os das atuais CPUs, atingem um desempenho muito superior
em processamento numérico.
Foi pensando nesse potencial que se desenvolveu a linguagem
OpenCL (Open Computing Language), com o objetivo de tornar
possível executar programas comuns nas placas gráficas, as
mesmas usadas para executar jogos. Criada pela Apple e
posteriormente definida por um consórcio de grandes empresas
do setor, tais como AMD, IBM, Intel e NVIDIA, entre outras, a
OpenCL vem obtendo uma crescente adoção no mercado.
Para aproveitar os benefícios oferecidos pelos recursos das
placas gráficas é preciso reescrever as aplicações para que
passem a utilizar o paralelismo, mecanismo através do qual um
programa tem seus múltiplos fluxos divididos entre os núcleos
de processamento. Esse esforço é amplamente recompensado
pelos ganhos de desempenho, usualmente na ordem de 100
vezes. Um dos fabricantes publicou casos de altos ganhos de
desempenho, superiores a 2.500 vezes.
As aplicações que mais se beneficiam desse novo recurso são
aquelas que envolvem pesados cálculos numéricos, como
os da indústria do petróleo, área financeira, dinâmica dos
fluídos, processamento de sinais, cálculos sismológicos e
simulação, entre outras.
A princípio, qualquer aplicação poderia ser executada nas
GPUs. Até sistemas gerenciadores de bancos de dados já
foram portados para esses processadores, obtendo-se ótimos
resultados. Hoje já existem, inclusive, aplicações com detecção
de GPUs compatíveis que ativam automaticamente seu uso.
Usando-se GPUs é possível dobrar o desempenho das aplicações
sem ter que investir em hardware caro, pois para essa ordem
de grandeza de ganho de desempenho não é necessário usar
GPUs poderosas. Mas, independente disso os fabricantes de
GPUs seguem aumentando a capacidade de processamento de
seus produtos, a ponto de ser possível hoje montar um desktop
com poder de cálculo de 2 TeraFLOPS usando GPUs a um
custo aceitável para usuários domésticos. Como referência, uma
das CPUs mais avançadas da atualidade (Intel Core i7 980X
EE) atinge “apenas” 100 GigaFLOPS, ou seja, uma média de
desempenho vinte vezes menor.
Entretanto, ainda existem gargalos nessa tecnologia, princi-
palmente no que se refere à capacidade de transferência de
dados entre a memória principal da CPU e a memória das GPUs,
ponto que já está sendo endereçado pelos fabricantes, o que
eleva o potencial de utilização das GPUs para fins gerais.
A disseminação de aplicativos que utilizem a OpenCL pode nos levar
a um novo patamar de desempenho simplesmente aproveitando
de maneira mais inteligente a capacidade de processamento que
temos instalada em nossos computadores de hoje.
Para saber mais:
http://www.khronos.org/opencl/
http://www.alphaworks.ibm.com/tech/opencl/
48
Technology leadership council Brazil
o poder da Tecnologia social
Marcel Benayon
Se hoje em dia todos já nascem “conec-
tados”, me recordo bem de quando entrei
para esse time. Foi em 1992, quando eu
tinha 12 anos e ganhei de meu pai um
modem analógico — creio que muitos
leitores nem conheceram essa tecnologia
— mas ele, que trabalhava na IBM e era
muito dedicado, sempre chegava tarde
em casa e adiava a instalação do novo
equipamento. E foi assim até que um
dia, sem conhecimento algum mas com
muita sorte, peguei as ferramentas e
ecoou o barulhinho do sucesso (do sinal
da portadora do modem)! Dias depois
entrava no ar minha própria BBS (Bulletin Board System), uma
central de troca de mensagens e arquivos. Foi minha primeira
experiência de conectividade, aliando tecnologia e sociedade.
Como o público era de garotada e a receita baixa, as linhas foram
cortadas e o serviço suspenso alguns anos após a inauguração.
Quinze anos depois fui surpreendido por uma questão
tecnológica trazida por um amigo que ouvira falar do Twitter e
tinha sérias dúvidas se iria dar certo. Ele achava que, como não
tinha dinheiro ligado diretamente, não haveria base para uma
receita de sucesso. Lembrei de minha BBS, suas diferenças
e vínculos com a nova realidade.
Hoje não há dúvidas de que as redes sociais são um marco
tecnológico. Já me acostumei ao calendário no Facebook, aos
contatos no LinkedIn e às informações no Twitter. Mais importante
que isso, as empresas estão fazendo dinheiro fluir por esse
caminho, reduzindo a distância de seus clientes a apenas um
clique do mouse. E a maior publicidade hoje já é clique-a-clique,
uma atualização do antigo boca-a-boca.
Fugindo dos spams, trago exemplos diferentes e pouco
conhecidos de aplicação de mídia social, como a Jones
Soda e seus refrigerantes de milho e patê de salmão (entre
64 sabores) que obteve fama mundial ao lançar, via Facebook,
uma campanha que já vendeu mais de um milhão de garrafas
personalizadas com qualquer foto de seus
fãs na rede. No Brasil, o sucesso inicial
do Foursquare em motivar restaurantes a
mimar quem registrava sua presença no
local passou, mas marcou o início de uma
era. A União, ao lançar a versão light de
seu açúcar, ofereceu amostras grátis aos
que duvidaram da qualidade do produto
em redes sociais.
Os líderes de projeto do Service Day, uma
das iniciativas do centenário da IBM em
que cada funcionário da empresa doou
8 horas do seu tempo para atividades
comunitárias, foram treinados para ex-
plorar mídias sociais na condução das atividades, principalmente
nas de captação de voluntários e divulgação de resultados.
Derivada das ações virtuais durante o evento, a comunidade da
IBM no Rio de Janeiro no Facebook já passou de 500 integrantes
e é hoje um forte canal de integração.
Se antes era difícil entender o capital fluindo junto aos bits e bytes,
a utilização social da tecnologia hoje impulsiona o mercado na
captação de recursos em bolsas de valores. Para alavancar
pesquisas e desenvolvimento, o LinkedIn levantou cerca de
US$ 350 milhões (mais do que seus US$ 243 milhões de receita
e 23 vezes seu lucro em 2010). O sucesso na captação da
rádio virtual Pandora gerou preocupações, uma vez que o site
amarga prejuízos e possui modelo ainda questionável, mas,
mesmo assim, investidores esperam que a injeção de capital
dê novos rumos à companhia. O Facebook aguarda sua vez na
fila, com estimativas iniciais apontando uma capitalização de
US$ 10 bilhões, precificando a empresa em US$ 100 bilhões!
Será que o mercado vai apoiar essa operação ou teremos pela
frente a formação da “bolha.com 2.0”? Para não me arrepender
depois, os velhos disquetes de 5 1/4‘’ com arquivos de minha
BBS ainda estão guardados...
Para saber mais:
http://www.bspcn.com/2011/03/04/20-examples-of-great-facebook-pages/
49
Technology leadership council Brazil Technology leadership council Brazil
meninas e Tecnologia
Cíntia Barcelos
Quando eu era criança adorava ir à feira com meu pai. Tinha
meu carrinho de compras e a diversão era fazer as contas de
cabeça antes dos donos das barracas. Eles não acreditavam que
o resultado dava certo. E, modéstia à parte, sempre dava. Meu
pai me ensinou esse “truque”, assim como a pensar, racionar de
forma lógica e a gostar de matemática de uma forma divertida.
Hoje tenho duas filhas e minha grande preocupação é deixar
as opções abertas para que elas possam buscar aquilo que
realmente gostam, seja em matemática, ciências ou artes plásticas.
Infelizmente nem todas têm a oportunidade de se desenvolver
e apreciar as ciências exatas. Acredito que o problema começa
cedo na vida delas e a parcela cultural é muito forte. Meninas
são constantemente levadas a achar
que não são boas em matemática e
que tecnologia é chato. Muitos dizem
que meninas são melhores nas áreas
humanas e em profissões que envolvem
pessoas e que meninos é que são
bons com números. Eles, além desse
incentivo que ocorre naturalmente,
têm vários exemplos de homens que
são engenheiros ou profissionais da
computação, os quais admiram e julgam
ter uma carreira bacana. Já as meninas
não têm muitos exemplos nos quais
possam se inspirar.
Eu me formei em Engenharia Eletrônica
e trabalho com tecnologia há 19 anos. Minhas filhas (de 7 e 9
anos) sempre me perguntam o que faço no trabalho. Venho me
aprimorando na resposta com o passar dos anos. É mais trivial
para elas entenderem o que faz um professor, dentista ou médico.
É parte do dia a dia delas. Comecei a explicação pela parte
da engenharia, que um engenheiro inventa, constrói, conserta
coisas e, resolve problemas. Quase tudo à nossa volta tem a
participação de engenheiros. Depois acrescentei a tecnologia.
Elas nasceram nesse mundo de celulares, tablets, netbooks e
são apaixonadas por esses gadgets. Eu as explico que no meu
trabalho eu indico ou aplico tecnologias para que as empresas
e a comunidade em que vivemos possam funcionar melhor. Eu
faço projetos nos quais a tecnologia tende a tornar tudo mais
simples. Engenheiros e demais profissionais de tecnologia criam
coisas novas que ajudam a sociedade. É uma forma bem mais
bacana de apresentar a área para as meninas, sem vinculá-la
a um estereótipo específico de nerd.
Trabalhar com tecnologia envolve criatividade, gostar de resolver
problemas, ter habilidade para trabalhar em grupo e ser curioso.
Gostar de estudar é fundamental para se manter atualizado e
estar em alta no mercado de trabalho. Fazer faculdade é muito
importante e a pós-graduação é um diferencial, assim como
buscar as certificações profissionais de mercado. Essa carreira
pode garantir, além de um bom emprego, conhecer e conviver
com pessoas muito talentosas. Profissionais de tecnologia são
modernos e estão sempre por dentro das novidades. Tem tudo
a ver com meninas, modernas e antenadas.
Hoje ainda não há um caminho trivial para as mulheres que decidem
enveredar pelas áreas de engenharia e tecnologia. Talvez por isso
existam poucas nas carreiras técnicas das
universidades e das empresas. No meu
trabalho, por exemplo, são incontáveis
as reuniões das quais participo em que
eu sou a única mulher “técnica” na sala.
Mas se existe um preconceito inicial,
esse é facilmente vencido ao se mostrar
competência e conhecimento. Para mudar
esse quadro geral é preciso atuar com as
meninas desde cedo, mostrando-lhes as
coisas de forma clara. Pais e professores
são fundamentais na tarefa de descobrir e
incentivar meninas talentosas em ciências
exatas a seguirem sua real vocação. E o
que o mercado hoje busca é uma força de
trabalho diversificada, pois quando homens e mulheres trabalham
juntos chegam a resultados melhores. O mercado está carente
de engenheiros e bons profissionais de tecnologia. Existe uma
grande oportunidade para mulheres se desenvolverem e crescerem
nessa promissora área.
Hoje não vou mais à feira pois meu marido (economista) faz
as compras da casa melhor do que eu. Mas eu instalo os
equipamentos eletrônicos, sou o suporte técnico da casa para
assuntos gerais e estudo matemática com minhas filhas. Crianças
aprendem com exemplos e essa é uma forma doce de dizer-
lhes que podem ser boas em qualquer coisa que gostarem e se
dedicarem. Mas ainda adoro fazer contas de cabeça. Sempre
que chega a conta do restaurante meus amigos me pedem
para ver quanto deu por pessoa...
Para saber mais:
http://anitaborg.org/
http://women.acm.org
50
Technology leadership council Brazil
soBre profeTas e Bolas de crisTal
Avi Alkalay
Há quem diga que os antigos profetas eram pessoas comuns
que proferiam simples consequências lógicas baseadas em
observação mais profunda de fatos de seu presente e passado.
Tudo o que vemos à nossa volta é resultado de alguma ação,
tem uma história e um motivo de ser e de existir.
Em contrapartida, seguindo um mesmo raciocínio científico, se
algo aparentemente “não tem explicação” é porque ninguém se
aprofundou suficientemente nos fatos históricos que o causaram.
Avancemos no tempo. Hoje, vinte anos após a Internet ter mudado
a sociedade e os negócios, o mundo está bastante informatizado.
Na prática, isso significa que milhares de computadores
constantemente geram dados em volume torrencial. Seja o
item que passou pelo caixa do supermercado, a placa do carro
capturado pela câmera de trânsito, o perfil visitado na rede
social ou o registro de uma ligação telefônica.
Após ser usada em seu propósito inicial (totalizar uma conta,
multar, etc.), a informação passa a ser dado histórico.
Mas os dados históricos podem ter um valor ainda maior em
seguida. Quando agregados em grande quantidade ou dispostos
em gráficos, podem mostrar desempenho, crescimento, queda
e, principalmente, tendências, que é a materialização no mundo
dos negócios da eterna busca pela previsão do futuro.
“Profetas” modernos trabalham mais ou menos assim:
1. Identificam diversos repositórios de dados históricos espalhados numa empresa (ou até fora dela) e os integram de forma a permitir que sejam acessados em conjunto. Dois exemplos de dados seriam (a) todos os produtos vendidos numa loja e (b) cadastro de clientes com dados mais genéricos como CPF, endereço e renda mensal. Muitas vezes os dados são armazenados em data warehouses ou data marts e outras vezes descartados após a análise;
2. Encontram e modelam relacionamentos entre esses dados. Por exemplo, o CPF do cliente que comprou tais produtos e o perfil desse CPF no cadastro geral de clientes;
3. Criam visões gráficas que os ajudam a inferir e, even-tualmente, “prever o futuro” e tomar melhores decisões a fim de controlá-lo. Veja que esse fator, ainda bastante humano, é o mais valioso nesse processo.
Neste exemplo, uma previsão desejável – baseada no histórico
de uma população – é o padrão de compra dos moradores de
um certo bairro ou dos clientes de certa faixa de renda ou com
certo número de dependentes. Essa análise é útil justamente
para abastecer uma loja com produtos e quantidades certas
ou ainda viabilizar campanhas de marketing direcionadas, com
índice de retorno muito maior.
Outra previsão importante é o quanto será necessário abrir as
comportas de uma usina hidrelétrica a fim de gerar energia
suficiente para atender a demanda após o último capítulo de
uma novela popular – hora em que cidades inteiras tomarão
banho ou começarão a passar roupa.
Parece algo banal mas é um evento histórico que, quando não
tratado, pode causar apagão num estado inteiro. Esse exemplo
é real e mostra a intrínseca relação – às vezes nada intuitiva
quando vista isoladamente – entre fatos díspares.
Prever ou controlar o futuro tem se institucionalizado como
ciência formal nas disciplinas de Business Intelligence – que
tem como objetivo observar indicadores quantitativos a fim de
entender o passado e o presente – e Business Analytics – que
busca nos auxiliar a fazer as perguntas certas via correlação
entre dados. Seus praticantes têm conhecimento multidisciplinar
(hidrelétricas e novelas, por exemplo) e usam sua intuição, ambos
potencializados por sistemas e métodos dessas disciplinas.
A última palavra em profecias são sistemas que recebem dados e
fatos conforme esses vão surgindo e, em tempo real, conseguem
tomar decisões de ajuste e melhoria de desempenho, tais como
dar ou retirar crédito financeiro, comandar operações na bolsa de
valores ou distribuir carga em uma rede telefônica, entre outras.
Prever ou controlar o futuro sempre será algo difícil e portanto
valorizado. Sistemas e técnicas de análise de negócios são
as bolas de cristal modernas que transformaram essa arte em
algo científico e tangível.
Para saber mais:
http://en.wikipedia.org/wiki/Data_mining
http://theregister.co.uk/2006/08/15/beer_diapers/
51
Technology leadership council Brazil Technology leadership council Brazil
cidades inTeligenTes: o TraBalho se move para que a vida siga
Flávio Marim
Uma certa sequência de três imagens um dia pulou de um
pôster na parede do escritório de planejamento da cidade de
Münster, Alemanha, para ganhar a web em forma de discurso
em prol da diminuição de carros nas ruas. As fotos mostram um
comparativo entre o espaço ocupado pelo mesmo número de
pessoas quando utilizam bicicletas, carros e ônibus. Em 2001,
quando a imagem foi criada, a web, ainda jovem, não inspirou
outras ideias melhores de transporte coletivo e veículos não
poluentes. Hoje, com soluções maduras em trabalho remoto
e o caos nos fazendo clamar por cidades mais inteligentes,
trabalhar sem sair de casa evidencia o que parecia estar perdido:
as cidades ainda podem ser das pessoas.
Qualquer habitante de
um grande centro sabe
o valor de evitar horários
de pico. Ninguém apre-
cia fazer parte do ver-
dadeiro exército que
se desloca diariamente
gastando muito tempo
e paciência enquanto
emitem toneladas de
gases venenosos na
atmosfera.
Se o transporte público não atende à demanda e veículos não
motorizados são frágeis demais na disputa por espaço, as
soluções em trabalho remoto podem tirar pressa, desgaste
mental e poluição das ruas.
Estudos mostram que trabalhadores brasileiros gastam uma hora
e meia em média por dia se deslocando entre seus lares e locais
de trabalho, metade dos quais usando automóveis e motocicletas.
São toneladas de CO2 que deixariam de ser produzidas se
essas pessoas pudessem ficar em suas casas, mas essa é
apenas a ponta do iceberg. Com mais tempo disponível em
suas vidas, a população poderia levar às ruas menos estresse
e ansiedade e uma maior predisposição a pequenas atitudes
que fazem as verdadeiras cidades inteligentes.
Mesmo com essa possibilidade e centenas de ferramentas
disponíveis, o que se vê é que protocolos básicos do bom
convívio urbano, como respeitar a faixa de pedestres, dar
espaço a ciclistas e ser paciente o tempo todo são desafios
quase inatingíveis para quem já gastou seu estoque diário de
tolerância e sequer conseguiu se aproximar do local onde trabalha.
Aqui, tecnologia e conectividade começam a ser utilizadas
de maneira equivocada e imperam imprudências tais como
uso de celulares, smartphones, tablets e até laptops, dividindo
perigosamente a atenção ao volante e despertando os olhos
atentos dos criminosos.
A conectividade da qual já dispomos, se usada com disciplina,
nos oferece uma nova maneira de sermos produtivos e focarmos
em um bem maior.
Empresas como IBM, Xerox e American Airlines, por exemplo,
perceberam há anos que boa parte de seus colaboradores pode
produzir em home-office
o mesmo ou até mais
do que nas estruturas
convencionais. O tabu
da falta de produtividade
longe dos olhos da
gerência tem se revelado
exatamente isso: um tabu.
É sabido que em muitos
casos a adaptação ao
trabalho remoto não é
fácil. É comum surgirem
conflitos familiares e
muitas vezes o profissional não consegue garantir o ambiente
apropriado fora da empresa. Isso indica que pode ter chegado
a hora de aplicar em casa a habilidade de se adaptar a um novo
ambiente de trabalho. Viver conectado não pode significar um
aumento de tensão. Ao contrário, deve possibilitar que se produza
com mais tranquilidade, dando fôlego às cidades e deixando-
as respirar sem o peso de nosso vai-e-vem já desnecessário.
As pessoas têm nas mãos uma grande chance de quebrar uma
reação em cadeia que tem transformado convívio em disputa. Usar
as tecnologias de trabalho remoto para promover essa quebra cria
uma grande oportunidade para que surjam as verdadeiras smart
cities: centros urbanos menos poluídos, menos congestionados,
com melhor qualidade de vida e povoados de smart attitudes.
Para saber mais:
http://super.abril.com.br/cotidiano/se-todo-mundo-trabalhasse-casa-667585.shtml
52
Technology leadership council Brazil
Tecnologia especial para a inclusão social
Ilda Yaguinuma
A Organização das Nações Unidas
(ONU) calcula em 600 milhões o nú-
mero de portadores de necessidades
especiais no mundo. Em 1998 a data
de 3 de dezembro foi escolhida para
comemorar o Dia Internacional da
Pessoa com Deficiência. Essa data
foi especialmente homenageada em
2006 como o dia da “e-acessibilidade”,
ou seja, acessibilidade às tecnologias de informação.
A estimativa para pessoas com deficiências é de 14,5% da
população, segundo o Censo 2000 do Instituto Brasileiro de
Geografia e Estatística (IBGE). São pessoas que possuem
dificuldade de enxergar, falar, ouvir, locomover-se, ou com
alguma outra necessidade relacionada à parte física ou mental.
A tecnologia, seja no avanço da mobilidade física como na
expressão da capacitação intelectual, está evoluindo para
integrar as pessoas de necessidades especiais nos mais variados
segmentos do mercado produtivo.
Na área de sensoriamento visual, desenvolvedores pesquisam
alternativas para adaptar os aplicativos às pessoas com
deficiência. Temos inúmeros exemplos: aplicativos que leem
as páginas que vão sendo abertas na tela e transmitem essas
informações por meio de áudio, o aparelho Snail Braille Reader
que converte em áudio mensagens de texto em braille, leitura por
meio de vibração oferecido pelo Nokia Braille Reader, celulares
que podem fazer ligação mediante acionamento por movimento,
aplicativo móvel que permite reconhecer objetos ao aproximá-
los do aparelho, gravação de voz para efetuar ligações pré-
programadas e pulseiras que orientam o deficiente visual por
meio de dispositivo GPS e conexão Bluetooth.
Para o mundo de deficiência auditiva, identificamos que a
LIBRAS (Língua Brasileira de Sinais) é a linguagem mais usada
para a comunicação no Brasil. Assim como as diversas línguas
existentes, ela é composta por níveis linguísticos como: fonologia,
morfologia, sintaxe e semântica. Da mesma forma que nas
línguas oral-auditivas existem palavras, nas línguas de sinais
também existem itens lexicais, que recebem o nome de sinais.
A única diferença é sua modalidade viso-espacial.
Em termos de avanços tecnológicos para LIBRAS, podemos
exemplificar softwares que traduzem palavras em português,
captam a fala através do microfone e exibem no monitor a
interpretação na forma gestual e animada em tempo real, oferecem
interface de chat com apresentação em sinais da escrita em
língua portuguesa, bem como em língua de sinais e editam
textos em língua de sinais escrita.
Atualmente já existem sites que ajudam na busca de colocação
de pessoas portadoras de necessidades especias para atuação
no mercado de trabalho. As grandes empresas de TI participam
desses sites no intuito de cumprirem o objetivo da Lei de Cotas
(artigo 93 da Lei Federal 8.213/91), na qual se estabelece que
de 2 a 5% do quadro de funcionários das empresas deve ser
reservado a pessoas com deficiência.
Diversas empresas no Brasil colaboram com organizações que
atuam na área, tais como Avape, IOS, Impacta e Instituto Eldorado,
com atividades de educação e recrutamento de PWD (People
With Disabilities). Elas colaboram com essa causa através de
programas de incentivos, acreditando no desenvolvimento da
diversidade da força de trabalho para o futuro.
Estudos mostram que promover essa diversidade traz benefícios
às empresas. Pessoas com formações diferentes proporcionam
visão holística, promovem a criatividade e a inovação. Do ponto
de vista de desempenho profissional, os funcionários deficientes
devem ser avaliados da mesma maneira que qualquer outro
funcionário. O que é preciso avaliar permanentemente é o
programa de inclusão em si. Devem ser revistas periodicamente
as fontes de recrutamento, os métodos de seleção e treinamento
e as ações de sensibilização e integração dos deficientes na
comunidade profissional.
A tecnologia pode abrir portas e quebrar barreiras para as
pessoas com necessidades especiais integrando-as à sociedade
e tornando-as parte da cadeia produtiva, com a rapidez e a
dinâmica que o mercado exige.
Para saber mais:
http://www.deficienteonline.com.br
http://www.oficinadofuturopcd.com.br
http://betalabs.nokia.com/apps/nokia-braille-reader
53
Technology leadership council Brazil Technology leadership council Brazil
agile: você esTá preparado?Luiz Esmiralha
No início, era o caos. Essa poderia ser a frase de abertura de
um livro que contasse a história da indústria da Tecnologia da
Informação. Em seus primórdios, o desenvolvimento de sistemas
era uma atividade artesanal, arriscada, não-padronizada e cara.
Uma longa fase de testes e correções ao término do projeto
poderia indicar que a qualidade do sistema final era inferior ao
que se esperaria de um produto confiável.
Por volta da década de setenta, foram criadas diversas
metodologias derivadas diretamente da engenharia, que
descreviam um ciclo de vida de projeto definido por fases
sequenciais, hoje conhecido como waterfall ou cascata. Esse
método define que para iniciar uma fase é necessário que a
anterior seja finalizada e que cada fase está ligada diretamente
a um conjunto específico de atividades, assemelhando-se a
uma linha de produção fabril. Embora algumas equipes tenham
obtido sucesso com o uso de metodologias desse tipo, cerca de
24% dos projetos de TI ainda são cancelados ou descartados
após a entrega, conforme descrito no Chaos Report (2009),
publicado pelo Standish Group.
A ideia de uma fábrica de software evoca uma imagem de
previsibilidade e redução de custos e riscos. Porém, o
software possui várias características intrínsecas que tornam
o seu desenvolvimento essencialmente diferente da atividade
de produção em série do modelo tradicional de Henry Ford.
Uma fábrica produz um mesmo tipo de objeto, repetidamente,
reduzindo assim o custo unitário de produção. Desenvolver
software é um esforço intelectual mais próximo do projeto de
novos produtos, enquanto a maioria das atividades repetitivas
podem ser automatizadas.
A mutabilidade é outra característica essencial do software.
Ao contrário de prédios, carros e outros objetos do mundo
físico, um sistema de software é relativamente fácil de ser
modificado e adaptado a novas situações. Geralmente, os
sistemas corporativos têm vida longa, portanto é vital que essa
característica seja bem aproveitada, permitindo ao sistema
acompanhar a evolução do negócio.
As metodologias ágeis (Agile) surgiram como resposta à
necessidade de processos disciplinados e confiáveis, porém
mais alinhadas à natureza peculiar do software. Ao invés dos
planejamentos minuciosos com rigorosos controles de mudanças
das outras metodologias, a Agile encara a mudança como uma
oportunidade.
Embora existam diferentes sabores de Agile (Extreme
Programming, Scrum, FDD, Crystal, Agile UP, entre outros), o
Manifesto Ágil sintetiza os valores e princípios comuns a todos.
Agile enfatiza que a colaboração com o cliente é um fator crítico de
sucesso, que o progresso se mede através da entrega de software
funcionando e que é melhor saber se adaptar a mudanças do
que insisitir em seguir um plano.
A adoção de um ciclo de vida particionado em iterações fixas
com duração entre uma e quatro semanas, equipes menores e
mais capacitadas, contratos de escopo negociável, envolvimento
do cliente durante todo o projeto, desenvolvimento guiado por
testes e uso maciço de testes unitários são algumas das técnicas
usadas para permitir adaptabilidade de forma disciplinada.
Equipes ágeis são autogerenciáveis, ou seja, recebem objetivos e
decidem como melhor atingi-los dentro do contexto da empresa.
Diversas técnicas podem ser utilizadas para acompanhar o
andamento do projeto, tais como reuniões diárias de quinze minutos
no formato stand-up, onde os participantes ficam em pé e reportam
o status de seu trabalho e eventuais dificuldades que estejam
enfrentando e o uso de quadros kanban e gráficos burn-down
para comunicar a situação do projeto a todos os participantes.
Embora Agile não seja uma panacéia para todos os tipos de
projetos, seus princípios e práticas podem constituir uma
ferramenta poderosa para gerentes de projeto de desenvolvimento,
à medida que não repetem vícios de modelos tradicionais e, ao
mesmo tempo, propiciam às equipes técnicas uma metodologia
ágil e eficaz para o desenvolvimento de sistemas.
Para saber mais:
http://www.agilealliance.org/
http://agilemanifesto.org/
http://en.wikipedia.org/wiki/Agile_management
54
Technology leadership council Brazil
a Teoria das inTeligências múlTiplas e as profissões em TiElton Grottoli de Lima
No início dos anos 80 Howard
Gardner, eminente professor
da Universidade de Harvard,
propôs a ampliação do conceito
tradicional de inteligência ao
pesquisar aspectos que viriam
a redefinir completamente a
percepção acadêmica sobre
a inteligência humana.
Tradicionalmente, avalia-se a capacidade cognitiva de uma
pessoa pelos seus aspectos lógicos e matemáticos. Essa é a
capacidade refletida nos testes de quociente de inteligência
(QI), uma medida que representa a habilidade em lidar com
padrões, números e formas, características essencialmente
matemáticas. Gardner percebeu que essa maneira de medir a
capacidade cognitiva de um indivíduo era limitada, pois deixava
de lado outros aspectos tão importantes quanto os lógicos
e matemáticos. Por exemplo, a oratória, a destreza física e a
habilidade de expressão escrita não são refletidas pela avaliação
do modelo tradicional. Essas observações levaram Gardner
a conceber sua Teoria das Inteligências Múltiplas, propondo
que a capacidade cognitiva de uma pessoa deve ser avaliada
dentro de um espectro de habilidades básicas. Sua pesquisa
identificou sete habilidades humanas elementares, cada uma
delas manifesta através de um tipo de inteligência: a linguística,
a lógico-matemática, a espacial, a corporal-cinestésica, a musical,
a interpessoal e a intrapessoal.
Na área de tecnologia, diversas profissões atestam a aplicabilidade
do espectro de inteligências proposto por Gardner. Notadamente
a inteligência mais percebida pelo senso comum é a inteligência
lógico-matemática, que confere ao indivíduo a capacidade de
raciocínio lógico, de lidar com quantidades, formas e padrões.
Utilizada por programadores para construir algoritmos, lidar com
abstra-ções e variáveis. Também demonstrada por profissionais
de consultoria em negócios quando reconhecem padrões e
aplicam o pensamento sistêmico visando a solução de problemas
empresariais.
Os profissionais especializados em desenvolvimento de software
para jogos eletrônicos podem demonstrar ainda outras duas
habilidades bem características de suas atividades: a inteligência
espacial, relacionada à capacidade de perceber o mundo visual
com precisão, efetuar modificações e transformações sobre as
percepções iniciais e recriar aspectos da experiência visual (essa
inteligência se aplica especialmente no uso de simuladores e
dos modelos computacionais que recriam virtualmente o mundo
físico) e a inteligência musical, reconhecida como o talento que
se manifesta mais cedo no desenvolvimento humano, através
da capacidade de perceber e manipular tons, timbres, ritmos
e temas musicais.
Ainda no desenvolvimento de software, temos na linguagem
escrita a forma mais comum de interação entre sistemas e
seus usuários. Como consequência, arquitetos de sistemas e
de interfaces não podem prescindir da inteligência linguística,
que é a habilidade individual de lidar com a linguagem escrita
e falada. E tratando-se de interação, observa-se atualmente o
crescimento da popularidade de interfaces operadas por gestos
e movimentos corporais. A criação de software e hardware
adequados a esse novo paradigma exige o entendimento de
habilidades motoras por parte de desenvolvedores e arquitetos,
alavancando a manifestação da inteligência corporal-cinestésica,
caracterizada pelo domínio dos movimentos do corpo e da
manipulação de objetos.
Ao lado das ocupações de perfil técnico, há também as profissões
relacionadas às vendas e aos diversos níveis de relacionamento
com os clientes, cujo sucesso depende em grande parte do
trato com as pessoas e de relacionamentos bem gerenciados.
Essas são características intrínsecas da inteligência interpessoal,
demonstrada pela capacidade de manter boas relações com
outras pessoas por meio da compreensão de seus humores,
motivações e desejos.
Por fim, mas não menos importante, há a inteligência intra-
pessoal, que confere ao indivíduo o bem-estar consigo mesmo,
reconhecendo suas aspirações, ideias e sentimentos. É
demonstrada por uma atitude motivada e autoconfiante. Essa
característica condiciona o sucesso profissional e é notadamente
expressa nos grandes líderes.
Esse grupo de inteligências elementares tem sido trabalhado e
expandido desde sua concepção, tanto por Gardner como por
outros estudiosos, mas sem perder seu posicionamento como
conjunto básico de habilidades humanas. Perceber como as
diferentes inteligências se manifestam nas profissões de TI
permite expandir a nossa visão sobre os profissionais da área
para além de seus estereótipos tradicionais.
Para saber mais:
http://revistaescola.abril.com.br/historia/pratica-pedagogica/cientista-inteligencias-multiplas-423312.shtml
http://www.youtube.com/watch?v=l2QtSbP4FRg
55
Technology leadership council Brazil Technology leadership council Brazil
analyTics ao alcance dos seus dedos
Paulo Henrique S. Teixeira
Quando se ouve o termo “Business Inteligence”, ou simplesmente
BI, é comum associarmos a uma infraestrutura que seja capaz de
processar e gerar relatórios a partir de informações de negócio,
que por sua vez são obtidas de diferentes fontes e consolidadas
em uma grande base de dados.
O conceito de BI não é recente. Em 1958 o pesquisador Hans
Peter Luhn definiu “Business Inteligence System”, em um artigo
do IBM Journal of Research and Development, como sendo um
sistema automático para disseminar informação aos vários setores
de qualquer organização industrial, científica ou governamental.
No ambiente altamente competitivo atual, o uso eficiente de
informações coletadas de diversas fontes e armazenadas em
sistemas de BI se transformou em um diferencial ou mesmo
uma questão de sobrevivência para as organizações, evoluindo
para o conceito de Business Analytics.
Para que as decisões de negócios sejam tomadas com maior
rapidez e precisão as informações precisam estar disponíveis
a qualquer momento. Além disso, tais decisões não estão
mais restritas ao ambiente físico do escritório. Com a maior
mobilidade da força de trabalho e a flexibilização na jornada,
elas acontecem também nos clientes, nos aeroportos, na rua
ou nas residências.
O surgimento de conexões de rede mais rápidas possibilitou
aumentar a abrangência do acesso aos ambientes de analytics,
suprindo parte dessas necessidades. Mas foi o surgimento de
smartphones e tablets que abriu as portas da mobilidade aos
usuários, dando início ao analytics móvel. O Gartner estima
que 33% dos acessos a esses sistemas em 2013 serão feitos
por dispositivos móveis.
Executivos, gerentes, força de vendas e mesmo o suporte de
campo aos usuários ou clientes são os maiores candidatos a
usufruir de benefícios como:
• Acesso às informações de negócios, independente da
localização, para embasar a tomada de decisões;
• O uso de telas multitouch, que permite novas formas de
interação do usuário final. O uso de toques específicos na
tela permite a adição de novas funcionalidades de consulta
a relatórios, com menor necessidade de treinamento aos
usuários;
• A geração de alertas em tempo real nos dispositivos móveis,
como um nível de estoque abaixo do limite mínimo, permite
ações e decisões mais ágeis, reduzindo paradas em uma
linha de produção.
• Facilidades de geolocalização por meio da triangulação
de antenas de telefones celulares, GPS ou redes Wi-Fi.
Isso permite que um vendedor gere relatórios específicos
a partir da sua localização, como por exemplo o perfil de
consumo da população da região em que ele se encontra.
Ou que uma central de atendimento determine qual técnico
de campo está mais próximo de um cliente e com isso
agilize o atendimento.
Já é possível que dispositivos móveis atuem como um canal
para alimentar o sistema de analytics com novas informações.
Por exemplo, um texto ou uma pergunta pode ser gravada,
enviada e comparada com outras informações das bases de
dados (text e audio mining).
O analytics móvel é ainda recente e segue a tendência de um
mundo em que as pessoas estão permanentemente conectadas.
A sua implementação tem capacidade disruptiva nos processos
das organizações e deve ser muito bem planejada, para que a
agilidade e os benefícios de negócio esperado sejam de fato
alcançados.
Para saber mais:
http://www.ibm.com/software/analytics/rte/an/mobile-apps/
http://www.gartner.com/it/page.jsp?id=1513714
56
Technology leadership council Brazil
a imporTância do processo de rcaGustavo Cezar de Medeiros Paiva
Na era digital é primordial para uma empresa evitar
indisponibilidades de seus sistemas, que geram quedas de
produtividade, perdas de receitas e prejuízos à reputação
da companhia. Diante disso, é imprescindível a realização
de investigações dos problemas que afetam os negócios da
empresa. O processo de Root Cause Analysis (RCA ou Análise
de Causa Raiz) tem como objetivo identificar, corrigir e previnir
a recorrência desses problemas.
O processo de RCA, coberto na seção Problem Management
(Gerenciamento de Problemas) do ITIL (Information Technology
Infrastructure Library), é considerado reativo e proativo ao mesmo
tempo. Reativo pois o problema será investigado após sua
ocorrência, e proativo devido ao resultado da investigação,
que deverá contemplar uma solução para que o problema não
ocorra novamente.
A investigação do problema requer a participação de diferentes
times e disciplinas, de acordo com sua categoria e é liderada
pelo time de gestão de problemas ou, na sua falta, por uma
equipe que tenha sido designada para tal função. Por meio desse
trabalho colaborativo é gerado um relatório de RCA que possui,
dentre outras informações, os serviços que foram impactados, a
descrição do problema, a cronologia dos eventos, as evidências,
as ações tomadas para restauração do serviço e principalmente
o plano de ação para correção definitiva do problema.
Existem várias técnicas para aplicação do método de RCA,
sendo que as mais utilizadas são a técnica dos cinco porquês e
a do diagrama de Ishikawa, também conhecido como “espinha
de peixe”. A primeira consiste em questionar o motivo pelo
qual aquele problema ocorreu até se esgotarem todas as
possibilidades, enquanto a segunda técnica se fundamenta
na ideia de que um efeito, nesse caso um problema, pode
possuir diversas causas, que são mapeadas de forma gráfica
em um diagrama similar a uma espinha de peixe, para que
então possam ser melhor investigadas.
Ao se trabalhar em um processo de RCA é fundamental que
os recursos necessários estejam disponíveis. Tais recursos são
chama-dos de documentos de diagnóstico e são compostos
por alguns elementos, como por exemplo arquivos gerados
pelos sistemas, que possuem informações relacionadas ao
seu funcionamento.
Com o advento e a propagação da computação em nuvem nas
empresas, o desafio é integrar as ferramentas de monitoração do
ambiente para que a coleta das informações seja realizada com
sucesso. A ideia é que haja uma correlação desses dados visando
determinar, nos documentos de diagnóstico, os relacionamentos
entre os desvios de serviços nas aplicações e as falhas na
infraestrutura.
Tanto o fornecedor de serviços de computação em nuvem
quanto os clientes devem fazer um esforço de integração de
ferramenta de gestão de incidentes e problemas, de forma que
haja transparência nesse processo facilitando assim o trabalho
investigativo.
Não importando qual o tipo de infraestrutura, o processo de
RCA proporciona uma melhoria na disponibilidade e na gestão
dos serviços de TI, aumentando assim a satistação dos clientes
e reduzindo os custos operacionais, uma vez que os serviços
estarão submetidos a um profundo e contínuo processo de
investigação em caso de indisponibilidade.
Para saber mais:
Livro: ITIL Service Operation - Autor: Gabinete de Governo do Reino Unido - ISBN 9780113313075 - 2011
57
Technology leadership council Brazil Technology leadership council Brazil
posso ver os dados?Ana Beatriz Parra
Se alguma vez na vida você já assistiu a uma apresentação
de Hans Rosling, é muito provável que tenha se apaixonado
por visualização de dados. A apresentação animada sobre o
desenvolvimento sócio-econômico feita por Rosling em 2006, no
TED, foi vista por milhares de pessoas e é um exemplo de como
a representação visual dos dados pode revelar informações que
nos permite uma melhor compreensão do mundo.
A visão é um dos nossos sentidos mais apurados. Nosso
sistema visual é muito bom na percepção de posição, extensão,
orientação, formato e tamanho. Pela visão, conseguimos perceber
rapidamente padrões e anomalias, tais como diferenças entre
tamanhos, formatos, orientação e posicionamento dos objetos.
As representações visuais de dados podem ser classificadas
de diferentes maneiras. A primeira distinção que podemos fazer
é em relação a sua forma de construção, manual ou através de
algoritmos. Na primeira categoria, temos os infográficos, que
são representações de um determinado domínio, desenhadas
manualmente e que, em geral, não podem ser replicadas
facilmente para um outro conjunto de dados. Os infográficos
são visualmente atraentes e atualmente muito utilizados em
jornais e revistas para apresentar dados diversos, como o nível
de endividamento dos países europeus ou a comparação entre
os diversos tipos de leite disponíveis no mercado.
Na segunda categoria temos as representações geradas por
algoritmos computacionais que podem ser reutilizados para
novos conjuntos de dados. Essa categoria é chamada de Data
Visualization (DataVis) ou Information Visualization (InfoVis). Uma
mesma representação visual pode ser utilizada repetidamente
ao longo do tempo com conjuntos atualizados de dados.
O New York Times é um dos veículos de comunicação que melhor
utilizam a visualização de dados para enriquecer e facilitar o
entendimento das suas matérias, tanto utilizando infográficos
como InfoVis.
Outra forma de classificação que podemos utilizar é em relação
ao objetivo da visualização: exploração ou explanação dos
dados. A exploração é utilizada quando ainda não conhecemos
os dados e procuramos compreender e identificar informações
importantes que eles possam fornecer. Na explanação o
objetivo é comunicar um conceito já entendido anteriormente.
Nesse caso, a visualização é utilizada para enfatizar aspectos
interessantes dos dados e transmitir uma informação já
conhecida pelo autor (informação adquirida provavelmente
pela exploração prévia). Cada vez mais essas duas categorias
estão se fundindo pelo desenvolvimento de visualizações
interativas, nas quais o autor apresenta uma explicação inicial
da informação e fornece aos usuários formas de explorar
os dados, por exemplo, mudando o período analisado, ou
selecionando um subconjunto dos dados.
A representação visual exige conhecimento de uma série de
disciplinas, tais como programação para coleta e tratamento dos
dados, matemática e estatística para exploração e entendimento
da informação, design para representação visual e, principalmente,
conhecimento do domínio ao qual pertencem os dados em análise.
A visualização de dados é um recurso extremamente rico para
analisar e representar informações. Mas como tudo na vida
tem dois lados, a visualização utilizada de forma incorreta
pode dificultar o entendimento ou mesmo levar a conclusões
equivocadas. Para representar uma informação é necessário
conhecer muito bem os dados, definir a questão que se quer
responder ou a mensagem que se quer transmitir, identificar o
perfil dos seus usuários e selecionar as técnicas de representação
adequadas ao seu objetivo.
Para saber mais:
To learn more: http://www.ted.com/talks/lang/en/hans_rosling_shows_the_best_stats_you_ve_ever_seen.html
http://learning.blogs.nytimes.com/tag/infographics/text
58
Technology leadership council Brazil
aprender Brincando
Sergio Varga
Nada mais interessante do que aprender alguma coisa se
divertindo, não? Jean Piaget (1896-1980), um dos grandes
pensadores do século XX, descreveu em sua Teoria Cognitiva
que o desenvolvimento intelectual ocorre em quatro estágios,
sendo que as brincadeiras e os jogos são atividades importantes
para esse desenvolvimento.
Existem várias iniciativas e práticas pedagógicas nas quais
os conhecimentos são ensinados por meio de brincadeiras,
principalmente na fase da infân-
cia. Ultimamente os jogos de
computador foram introduzidos
com a finalidade de ensinar
conceitos e suas aplicações com
o uso de atividades práticas. Além
disso, algumas questões mais
complexas, que eventualmente
requeiram uma forma diferente de
pensamento, foram solucionadas
com jogos de computador. Mais
recentemente um problema sobre
a AIDS que já estava há três anos
em pesquisa pelos meios comuns, foi solucionado em apenas
três semanas quando jogado no ambiente foldit.
Estão surgindo diversas soluções no ensino de eletrônica e da
lógica de programação. Em 2005 um grupo de estudantes do
Interaction Design Institute Ivrea (IDII), na Itália, desenvolveu
uma placa microcontroladora de baixo custo, baseado no
projeto Wiring — Open Source, na qual qualquer pessoa pode
desenvolver dispositivos inteligentes com um mínimo de
conhecimento em eletrônica e em lógica de programação. Essa
placa e suas similares tornaram-se uma excelente ferramenta
de apoio ao aprendizado no mundo acadêmico e aos adeptos
de tecnologia.
Mas o que essa simples placa faz? Ela permite, de uma maneira
muito fácil, desenvolver os mais variados dispositivos eletrônicos,
desde o acionamento de sequência de LEDs até uma automação
residencial completa.
Esse tipo de placa é baseado em um microprocessador que
monitora entradas e controla saídas digitais e analógicas onde
podem ser conectados diversos tipos de instrumentos, como
sensores, luzes, motores etc. Para conectá-la a esses dispositivos
utilizam-se wiring cables e protoboards sem necessidade de
solda ou conexão especial. No aspecto de programação existe
uma linguagem própria com uma interface amigável, também
baseada em código aberto (Open Source). Dessa forma qualquer
pessoa é capaz de fazer um primeiro experimento, como piscar
um LED, em menos de 5 minutos de trabalho.
Além de sua utilização no meio
acadêmico, essa placa tem
potencial para ser utilizada em
empresas, principalmente em
processos de desenvolvimento nos
quais a prototipação de circuitos
impressos é necessária e cara.
Empresas que fazem pesquisas
também podem se beneficiar
desse tipo de dispositivo para
desenvolvimento e testes de novos
produtos. Ou ainda, dentro do
conceito de cidades inteligentes,
representa um auxilio nas camadas de instrumentação e
interconexão de sistemas e dispositivos.
Para aqueles que trabalham somente com software e têm
pouco conhecimento em eletrônica, a proposta apresentada
por esse tipo de equipamento permite abrir um mundo novo
de oportunidades e inovações.
Além disso, para os pequenos que ainda estão descobrindo o
gosto pela ciência e engenharia, essa placa permite instigar a
curiosidade e desenvolver a criatividade e o raciocínio lógico por
meio de brincadeiras, enquanto educa a criança nos conceitos
de elétrica, eletrônica, física e computação.
Será que esse novo “brinquedo” não seria uma chave para
despertar nas crianças e jovens o fascínio por tecnologia e por
tudo aquilo que a cerca?
Para saber mais:
http://makeprojects.com/Topic/Arduino
http://fold.it/portal/info/science
59
Technology leadership council Brazil Technology leadership council Brazil
processamenTo de áudio em placas gráficas
Diego Augusto Rodrigues Gomes
Desde o surgimento das placas de vídeo, pesquisadores as
utilizam para resolver problemas não relacionados ao contexto
gráfico. Isso se dá pelo fato da unidade de processamento gráfico
(GPU na sigla em Inglês) se mostrar extremamente eficiente
em aplicações que demandam elevado poder computacional.
Quando fabricantes de placas de vídeo disponibilizaram interfaces
de programação voltadas para aplicações de propósito geral
e não apenas de natureza gráfica, o uso desses dispositivos
para a solução de problemas computacionalmente intensos
se popularizou.
Daí surgiram aplicações para solução eficiente de problemas
da área de bioinformática, simulações físicas e financeiras,
que antes seriam executadas em
tempo muito maior se utilizassem
apenas CPUs convencionais. Nesse
contexto, programas de áudio que
necessitam realizar muitas operações,
como aplicação de efeitos, simulação
e síntese de áudio tridimensional ou
que precisam apresentar tempos
de resposta mais curtos, podem se
beneficiar do uso desse hardware
gráfico para o processamento mais
eficiente de informações.
O conceito de áudio 3D está rela-
cionado à capacidade de simular o
posicionamento de uma fonte sonora em um espaço tridimensional
virtual ao redor de um ouvinte. Isso acontece com o auxílio
de um processo chamado síntese binaural, em que os canais
esquerdo e direito de um sinal de áudio são filtrados por funções
matemáticas que permitem simular tal posicionamento. Assim,
da mesma forma que se precisa de óculos para experimentar
a visualização em três dimensões, é preciso utilizar fones de
ouvido para experimentar a audição tridimensional com maior
fidelidade ao posicionamento do som.
Percebemos o posicionamento espacial de uma fonte sonora
porque as ondas percorrem distâncias distintas e encontram os
ouvidos direito e esquerdo em instantes diferentes. O cérebro,
ao receber essas duas informações, nos permite identificar de
onde vem o sinal sonoro. Em termos matemáticos, as funções
que definem como uma onda sonora atinge a entrada do canal
auditivo após a reflexão na cabeça, tronco e ouvido externo de um
ouvinte são chamadas de funções de transferência relacionadas
à cabeça, termo originário do inglês, Head-Related Transfer
Function (HRTF). Essas funções, além de aplicáveis no campo
do entretenimento, também são úteis no auxílio a deficientes
auditivos. Existem alguns estudos que utilizam HRTFs para
simular o posicionamento de uma fonte sonora e transmitir esse
sinal ao aparelho auditivo de pessoas com deficiência.
Alguns centros de pesquisa tais como MIT e o Ircam possuem
bancos de HRTFs para representar algumas posições ao
redor do ouvinte. A determinação dessas funções demanda
uma quantidade considerável de recursos e por esse motivo
não são feitas para todas as posições ao redor de um ponto
central de referência. Para obter os valores das funções
de pontos não conhecidos, utilizam-se mecanismos de
interpolação capazes de calculá-los
a partir daquelas já existentes.
O ganho em desempenho para
aplicações de áudio 3D utilizando
GPU é interessante, pois permite
a construção de aplicações mais
interativas e que possibilitam a simu-
lação e a resposta mais eficiente às
mudanças de posicionamento. Essa
tecnologia, além de ser utilizada para
transmitir estímulos que provoquem
novas sensações aos espectadores
no campo do entretenimento tais como
cinema, música e jogos, pode ser
utilizada em simulação acústica de salas e provavelmente em
outros campos ainda não explorados. Além disso, mostra-se
mais vantajosa que os sistemas surround atualmente presentes
em salas de cinema e em sistemas de home theater, já que em
vez de cinco ou mais canais de áudio armazenados em algum
tipo de mídia, tem-se apenas dois.
O processamento de áudio com uso de GPUs contribuirá
significativamente para o avanço dos sistemas em 3D,
possibilitando a construção de ambientes virtuais cada vez
mais realistas além de permitir o desenvolvimento de dispositi-
vos que tragam benefícios à vida humana.
Para saber mais:
NVIDIA CUDA C Programming Guide, version 4.0
http://sound.media.mit.edu/resources/KEMAR.html
http://www.ircam.fr/
http://www.princeton.edu/3D3A/
Hearing Aid System with 3D Sound Localization, IEEE
60
Technology leadership council Brazil
unicode ♥ דוקינו ☻ Уникод ♫ دوكينويAvi Alkalay
Você sabia que há pouco tempo era impossível misturar diversas
línguas numa mesma frase de texto sem a ajuda de um editor
multilíngue especial? Mais ainda, que havia idiomas cujas letras
sequer tinham uma representação digital sendo impossível usá-las
em computadores? Tudo isso virou passado com o advento do
Unicode e para entendê-lo vamos relembrar alguns conceitos:
Caractere: É a representação digital do que chamamos de letra
ou grafema ou ideograma. Alguns exemplos de caracteres: J
(jota maiúsculo), ç (cê-cedilha minúsculo), Φ ζ λ Ψ Ω π (caracteres
gregos), וניקוד (a palavra “Unicode” em hebraico), símbolos
matemáticos como × ÷ ∞ ∂ ∑ ∫, ou financeiros como $ ¢ £ ¥ ₪ €, hieróglifos egípcios e muitos outros
que mostraremos neste texto;
Glifo: Uma representação gráfica para
um certo caractere. As fontes Times New
Roman e Arial usam glifos diferentes
para representar o mesmo caractere “g”;
Encoding: É uma dica que damos ao
computador para que ele saiba qual
caractere ou letra humana ele deve
usar para mostrar certo código binário.
Por exemplo, o código 224 no encoding
ISO-8859-1 é o caractere “à”, porém no ISO-8859-8 é a letra “א”.
Repare que no universo desses antigos encodings as letras “à” e
não podem coexistir porque usam o mesmo código binário. E é ”א“
justamente esse o problema que foi levantado no começo do texto.
Antes do Unicode era necessário somente 1 byte de computador
para armazenar a informação de 1 caractere. Os encodings são
necessários mas, como vimos, havia limitações indesejáveis. Como
o Unicode propõe uma gama muito maior de códigos binários,
único e imutável por ideograma, caracteres de idiomas diferentes
podem agora coexistir no mesmo texto. Neste exemplo “à” e “א”
têm códigos Unicode que não conflitam entre si: 0x00ED e 0x05D0.
A história do Unicode começa em 1987 na Xerox e Apple, e
tenta incorporar todos os ideogramas e letras do mundo, um
conjunto bem maior do que 255 caracteres (que é o que cabe
em 1 byte). Um caractere Unicode pode ter de 1 a 4 bytes.
Evoluir para múltiplos bytes por caractere tem certas implicações
pois os softwares não estavam preparados para isso. Contar
caracteres numa frase é agora diferente de contar o número
de bytes ocupados por essa frase. Mostrar ou imprimir tal frase
é também agora uma tarefa de outra ordem: há línguas onde
se escreve da direita para esquerda, como árabe ou hebraico,
versus as da esquerda para direita, baseadas no sistema latino.
No título do artigo há a palavra “Unicode” em ambos os sentidos
na mesma frase, na escrita latina (→), hebraica (←), russa (→) e
árabe (←) respectivamente e isso serve de exemplo para mostrar
que a questão de múltiplos sentidos de escrita na mesma frase
é contemplada e resolvida pelo Unicode.
O Unicode introduziu também desafios de desempenho pois há
muito mais caracteres maiúsculos e minúsculos para comparar e
mais bytes para armazenar e processar. Mas tudo isso é marginal
com a evolução do poder computacional, universalidade e
eternidade da informação que o Unicode oferece.
Ainda no título, outra coisa que chama a atenção são símbolos
como ♪♠☼☺, ideogramas que fazem
parte de uma faixa de caracteres do
Unicode chamada Emoji, incorporado
ao padrão em 2010. Mas por enquanto,
podemos utilizar somente alguns Emojis
em forma de texto porque estão em
fase de implementação nos sistemas
operacionais. Por outro lado, eles já são
bastante populares nos sistemas iOS
(iPhone, iPad), Mac OS X Lion e Linux.
Somente a versão 8 do Windows terá
suporte completo a Emoji.
Emoji é também um marco de evolução da linguagem escrita.
Em tempos de uso intenso de redes sociais e SMSs, é muito
mais divertido e expressivo escrever “eu ♥ você”, “estou com
fome², vamos”, “adorei ”, “hoje estou zen” etc. E que
tal mais esses para seu próximo tweet?: ♐ ☠ ☢ ☭ ☣ ✡ † ➡ ☮ ☎ ♚ ♛ ✿. Todos são caracteres tão comuns quanto “ú” ou “H”
e graças ao Unicode, não é necessário nenhum recurso de
processador de texto para usá-los.
O Unicode já está em pleno uso na Internet. É comum encontrarmos
páginas que misturam línguas ou usam caracteres avançados.
Um relatório periódico do Google mostra que entre 2008 e 2012
o uso de Unicode em sites subiu de 35% para mais de 60%. Não
poderia ser menos, pois Unicode é uma tecnologia absolutamente
essencial para um mundo globalizado e multicultural.
Ao longo deste texto mostrei alguns caracteres, letras e
ideogramas curiosos. Para fechar, deixo-os com uma última ideia:
um pouco de unicode nao faz mal a ninguem.
Para saber mais:
http://www.DecodeUnicode.org/
http://en.wikipedia.org/wiki/Emoji
http://googleblog.blogspot.com.br/2012/02/unicode-over-60-percent-of-web.html
61
Technology leadership council Brazil Technology leadership council Brazil
a verdade é um caminho conTínuo
Paulo Maia
Todos nós já vivenciamos situações
nas quais percebemos que as em-
presas fornecedoras de produtos e
serviços não conhecem bem os seus
clientes, pois apesar de possuírem
um significativo volume de dados
sobre eles, não conseguem usá-los de maneira efetiva. No caso
das empresas que passaram por fusões e aquisições, prática
comum no mercado atual, o problema é ainda maior. Além
disso, um a cada três gestores toma decisões baseadas em
informações que eles não confiam ou não possuem, segundo
estimativa do estudo Break Away with Business Analytics and
Optimization da IBM de 2010. Problemas como esses não
aconteceriam se as empresas tratassem suas informações
como verdadeiros ativos, cuidadosamente geridos e com alto
controle sobre sua qualidade.
Por outro lado, o desafio só aumenta. A quantidade de dados
existentes no mundo está crescendo em taxas alucinantes e
cerca de 90% do volume total foi gerado apenas nos últimos
dois anos. Essa é a era do que está sendo chamado de big
data, que possui quatro desafios principais, representadas
pelos quatro “Vs”:
• Volume de dados. Em 2011, foi cerca de 1.8 zettabytes
(ZB, o que equivale 1021 bytes). Em 2020 a previsão é de
que seja 35 ZB. O Google processa mais de 24 petabytes
(PB, 1015) por dia, o Twitter cerca de 7 PB e o Facebook
mais de 10 PB.
• Velocidade na criação e integração dos dados, com
processos de negócio demandando informação praticamente
em tempo real.
• Variedade dos dados, pois 80% das informações existentes
estão em um formato não estruturado, como correio eletrônico,
vídeos, fotos, documentos, redes sociais e dados advindos
de sensores eletrônicos.
• Veracidade, uma vez que é necessário identifcar quais
informações são confiáveis em meio à grande quantidade
originada em alta velocidade por diversas fontes.
Em virtude desse cenário surge o conceito de governança
de dados, disciplina que envolve a orquestração de pessoas,
processos e tecnologias, visando estabelecer controle sobre
esses ativos. Para a implementação bem sucedida dessa
disciplina, vários fatores são importantes: a escolha de um
patrocinador executivo para apoiar as atividades que normalmente
envolvem várias áreas de negócio e a avaliação do estágio atual
da maturidade em relação à governança de dados e do nível
que se pretende alcançar em um determinado prazo.
Dessa forma, os resultados podem ser medidos e o respaldo
das áreas de negócio mantido. O programa deve se tornar um
processo contínuo, no qual se estabelece um escopo inicial
alinhado com alguma estratégia de negócio da empresa, como por
exemplo aumento da receita, gerado pelo melhor conhecimento
dos clientes; redução de custos, ao se diminuir despesas com
armazenagem de dados ou mitigação de riscos a partir de uma
gestão mais eficiente do risco de crédito.
As disciplinas principais que suportam o programa são qualidade
de dados, segurança, gestão de dados mestres (Master Data
Management), governança analítica e ciclo de vida da informação.
Alguns dos benefícios alcançados por organizações que
implementam governança de dados são a melhoria da confiança
dos usuários em relação aos relatórios e a consistência de
seus resultados quando comparados com outros que tenham
origem de diversas fontes de informação e também o aumento
do conhecimento sobre o cliente que possibilita campanhas de
marketing mais efetivas.
É importante ressaltar que a causa principal de falhas na
implementação de um programa de governança é a falta de
alinhamento entre os objetivos de negócio e programas da área
de TI, a qual não deve ser responsável pela governança de
dados, mas sim a protetora ou a zeladora dos mesmos.
Durante séculos, filósofos como Nietzsche têm buscado uma
resposta para o signficado da verdade, mas ela se mantém
evasiva. Em termos práticos, a verdade poderia ser definida
como a informação com a mais alta qualidade, disponibilidade,
relevância, completeza, precisão e consistência. As empresas
que forem capazes de implementar programas de governança
de dados, considerando a velocidade, variedade, volume e a
veracidade das informações que são geradas, terão enorme
vantagem em um mercado cada vez mais competitivo e inteligente.
Para saber mais:
http://www.dama.org
http://www.eiminstitute.org
http://www-01.ibm.com/software/data/sw-library/
62
Technology leadership council Brazil
Tudo (que imporTa) a seu Tempo
Renato Barbieri
O tempo voa. “Já passamos do
meio do ano?” “Parece que foi
ontem!” “Nem vi passar...” Os
filósofos poderiam continuar
debatendo a natureza do tem-
po, mas em nosso cotidiano
precisamos de soluções práticas
para exercitar a única opção que
nos sobra: utilizá-lo da maneira
mais racional e eficiente possível.
Os métodos, técnicas e ferra-
mentas de gerenciamento do
tempo têm por objetivo nos ajudar
na identificação das nossas tarefas, sua organização, priorização
e ainda evitar o adiamento de sua execução.
Publicado no Brasil em 2005 sob o título “A Arte de Fazer
Acontecer”, o livro de David Allen iniciou o movimento Getting
Things Done ou GTD, como é mais conhecido.
O método GTD se baseia em conceitos muito simples e parte
do princípio de que tudo que precisamos, ou muitas vezes
desejamos fazer, ocupa espaço valioso em nossos cérebros e
acaba por desperdiçar tempo e energia quando nos preocupamos
continuamente com o que precisa ser feito mas não o fazemos.
Essas fontes de preocupação são chamadas de “stuff” (coisas),
que primeiro precisam sair do nosso cérebro para serem
armazenadas em algum tipo de repositório, como uma lista
numa folha de papel, agenda ou mesmo um software escrito
para GTD. O que importa é tirar da cabeça e capturá-lo em um
meio de armazenamento para uso futuro.
O próximo passo é o processamento de toda essa informação, ou
seja, decidir se a tarefa será executada imediatamente (se leva
menos de dois minutos, faça agora!), se merece ser detalhada
e estruturada como projeto, se será delegada para alguém, se
queremos deixá-la para um futuro ainda distante, se deve ser
armazenada como referência ou simplesmente jogada no lixo.
Com as tarefas processadas e organizadas, é possível iniciar
o trabalho necessário em cada uma delas.
O GTD também nos aconselha a organizar as tarefas por
contexto (em casa, no trabalho, na rua) assim poderemos
executá-las em diferentes situações do nosso dia-a-dia,
aproveitando melhor o tempo. O ciclo é então fechado com
revisões semanais e mensais, permitindo que as tarefas sejam
avaliadas periodicamente e suas prioridades ajustadas de
acordo com sua importância e urgência.
Mas a utilização desse método requer mudanças de hábitos.
Uma ótima referência, que complementa muito bem esses
conceitos, é o livro “Os Sete Hábitos de Pessoas Altamente
Eficazes”, de Stephen R. Covey. Existe até uma implementação do
GTD, chamada Zen-To-Done (ZTD), que incorpora os conceitos
descritos nesse livro do Covey.
Outra técnica para gerenciamento de tempo, que é ao mesmo
tempo simples e muito interessante, é chamada de “The Pomodoro
Technique”. Essa técnica, amplamente divulgada na Internet
e que conta com muitos adeptos na comunidade Agile, usa o
conceito de timebox para dividir tarefas em blocos de esforço
de 25 minutos seguidos de períodos de descanso de 5 minutos.
A cada 4 pomodoros é aconselhável fazer um descanso mais
longo, de 15 a 20 minutos.
Esta técnica é ótima para exercitar o foco nas tarefas e utiliza
apenas duas listas: uma para controlar as atividades diárias e
outra para guardar as atividades pendentes. A técnica recomenda
ainda que as frequentes interrupções que sofremos sejam
registradas, para assim termos melhor ideia do quanto nossa
produtividade é afetada.
As técnicas acima são complementares e oferecem os recursos
necessários para que cada um encontre o seu próprio estilo ou
sua própria solução. Imagine como seria interessante aplicar
uma ou mais das técnicas acima no seu dia a dia e chegar ao
ponto de dizer a si mesmo: “Nossa! Consegui fazer tudo o que
era prioritário para hoje. E agora, tenho tempo sobrando. O que
posso fazer para aproveitar esse tempo?” O objetivo final é usar
o tempo de maneira racional e inteligente para fazermos tudo
que importa no seu tempo.
Para saber mais:
http://www.davidco.com/about-gtd
http://zenhabits.net
http://www.pomodorotechnique.com
63
Technology leadership council Brazil Technology leadership council Brazil
compuTação em nuvem e sisTemas emBarcados
Nilton Tetsuo Ideriha
Computação em nuvem é um modelo de negócios onde recursos
computacionais escaláveis e elásticos são fornecidos como um
serviço aos clientes de forma self-service e on-demand por meio
da Internet.
Originalmente nesse novo modelo, pensamos na utilização
desse tipo de serviço para abstrair os recursos computacionais,
como um servidor localizado no datacenter remoto ou então para
substituir alguma aplicação instalada em desktops de usuários.
Existem no entanto, outros tipos de sistemas que podem
usufruir dos recursos providos em nuvem, como os sistemas
computacionais embarcados, que são um conjunto de hardware
e software com o propósito de desempenhar funções específicas
dedicadas ao dispositivo ou sistema que controlam. Estão
presentes, por exemplo, em automóveis, equipamentos médicos,
aeronaves e eletrodomésticos, e podem utilizar serviços em
nuvem para ampliar os seus recursos, aumentando assim a
gama de serviços disponíveis aos seus usuários.
Cada vez mais os sistemas embarcados estão conectados às
redes corporativas e à Internet, vencendo uma barreira importante,
pois, tradicionalmente, a sua interconexão vinha sendo isolada
de outras redes. Esse novo acesso possibilita a expansão de
serviços ofertados por esses sistemas.
Alguns modelos de automóveis, por exemplo, já possuem
instalados centrais que possibilitam o controle integrado do
sistema de som, navegação por GPS, conectividade com celulares
e outros equipamentos eletrônicos. Carros com acesso à Internet
poderão acessar rotas de GPS, músicas, fotos e arquivos de um
repositório central provido por um serviço de armazenamento
em nuvem, tornando possível ao usuário ouvir suas músicas
preferidas e acessar as suas rotas em qualquer veículo equipado
para acessar tal serviço.
Há também o maquinário de chão de fábrica, que gera uma
grande quantidade de dados originados de sensores e sistemas
de controle que podem ser enviados para uma infraestrutura
em nuvem, analisados por técnicas de Big Data, utilizadas
em aplicações de gerenciamento, monitoração e Data Mining
visando, entre outras coisas, a predição de falhas e manutenção.
Outro exemplo de aplicabilidade são os serviços na área médica
que fazem coleta de dados das Unidades de Tratamento Intensivo
(UTI) e as enviam para um serviço em nuvem. Esse por sua vez
calcula os valores de risco que podem ser comparados com
padrões externos para medir o desempenho das UTIs a fim
de orientar a melhoria em áreas de desempenho insatisfatório.
Existem no mercado Starter Kits, que são um conjunto de
hardware e software destinados a projetos de computação
em nuvem, onde os recursos são acessados através de APIs
(Application Programming Interface) específicas diretamente
do software cliente embarcado. Esses Kits oferecem serviços
de computação em nuvem para armazenamento de dados,
atualização de firmware, acesso remoto com base em Virtual
Private Networks (VPNs) e configuração remota.
Essa nova abordagem pode ampliar a capacidade de
armazenamento e processamento dos sistemas embarcados,
que antes eram isolados e dedicados, representando um novo
campo a ser explorado onde novos negócios são promissores
com maior produtividade, integração e funcionalidade.
Para saber mais:
http://pt.wikipedia.org/wiki/Sistema_embarcado
http://www.eetimes.com/design/embedded/4219526/ The-embedded-cloud--IT-at-the-edge?Ecosystem=embedded
64
Technology leadership council Brazil
nanoTecnologia – como isso muda nossas vidas?Amauri Vidal Gonçalves
A Wikipedia define a Nanotecnologia como o estudo da
manipulação da matéria em uma escala atômica e molecular,
ou seja, estruturas que variam de 1 a 100 nanômetros (10-9
m). Para termos uma ideia mais objetiva das dimensões que
estamos falando, seria como comparar o tamanho de uma bola
de futebol com o da Lua.
A nanotecnologia objetiva o desenvolvimento de produtos
em diversas áreas, tais como Medicina, Biologia, Química,
Física, entre outras, manipulando-se átomos para construir
estruturas estáveis. Para isso utiliza-se de instrumentos de alta
especialização como, por exemplo, o Microscópio Eletrônico
de Varredura ou MEV.
O conceito de nanotecnologia foi abordado pela primeira vez
em dezembro de 1959 quando Richard Feynman (1918-1988),
um conceituado físico, comentou sobre a possibilidade de
manipulação de moléculas e átomos, vislumbrando a produção de
componentes invisíveis a olho nu. A partir de 2000, ela começou
a ser desenvolvida em laboratórios em projetos que permitiram
sua aplicação em várias áreas.
Essa tecnologia já está presente em nossa vida atual e trará
enorme impacto em um futuro próximo. Vejamos alguns exemplos:
Hoje em dia a nanotecnologia já é usada na fabricação de
artigos esportivos como tênis, tornando-os mais leves e ao
mesmo tempo mais resistentes. É usada ainda em tintas para
automóveis, deixando sua pintura mais resistente ao desgaste do
dia a dia. Empresas como HP, IBM, Toshiba e outras fabricantes
de storage e semicondutores também já utilizam a nanotecnologia
em seus processos de fabricação.
Na Medicina, nanomotores serão em um futuro próximo, a
base para a construção de nanorrobôs (nanobots), que ao
serem introduzidos no corpo humano poderão localizar células
cancerígenas residuais após cirurgias, permitindo tratamento
localizado mais efetivo. Poderão ainda monitorar a saúde através
de nanocâmeras, transmitir informações para equipamentos
através dos quais os médicos farão diagnósticos e definirão o
melhor tipo de tratamento para as doenças ou levar medicamentos
diretamente ao alvo, evitando efeitos colaterais indesejáveis.
A nanotecnologia será adotada na manufatura de tecidos, roupas
e sapatos, especialmente tratados para serem capazes de
repelir líquidos, evitar manchas e secar mais rápido. Existirão
também fraldas de papel mais resistentes e de maior duração e a
possibilidade da confecção de camisetas mais leves, resistentes
e até à prova de balas.
Na Tecnologia da Informação e Comunicação, além da produção
de displays muito finos e maleáveis, será possível também a
construção de baterias biodegradáveis e limpas a partir de
organismos vivos (como os vírus), alguns carregados positivamente
e outros negativamente, separados por material isolante.
Na indústria automotiva, baterias com base em lítio poderão
ser utilizadas com sucesso alavancando a produção de carros
híbridos com vantagens financeiras e ambientais.
Sensores ambientais robustos e portáteis serão capazes de
realizar análises químicas e tomar decisões. A geração de
energia elétrica será realizada de forma absolutamente limpa,
através do uso de nanotubos de carbono, contribuindo para
um planeta mais sustentável.
Esses são apenas alguns exemplos do uso da nonotecnologia
no futuro próximo. Inúmeras outras áreas como alimentação,
defesa, microeletrônica, cosméticos e controle de tráfego, serão
afetadas pelo seu uso.
Convido-os a assistir os vídeos selecionados abaixo que ilustram
algumas dessas ideias inovadoras apresentadas acima e que
irão transformar de forma radical o mundo em que vivemos.
Para saber mais:
http://www.youtube.com/watch?v=KizHjy4U2vs
http://www.youtube.com/watch?v=7hZ5hinf9vo
http://www.youtube.com/watch?v=YqGkC5uJ0yM
65
Technology leadership council Brazil Technology leadership council Brazil
Ti com susTenTaBilidade e eficiência
Evandro Evanildo da Silva
A mesma tecnologia que tanto traz conforto
para as nossas vidas, muitas vezes pode
gerar transtornos e prejuízos ao planeta. Já
se pode notar que o meio ambiente vem
sofrendo com as mais diversas formas
de agressão que afetam diretamente os
recursos naturais.
O lixo eletrônico (e-lixo), composto por monitores, gabinetes
ou outros componentes, é muita vezes descartado de forma
incorreta se acumulando na natureza e até mesmo nas ruas
dos grandes centros urbanos. Já faz parte de nosso cotidiano
encontrar restos eletrônicos em praças e ruas. Somam-
se ainda outros fatores que trazem prejuízos ambientais
causados pelos metais pesados que compõem as baterias
e componentes eletrônicos.
Estima-se que o mundo deverá produzir cerca de 50 milhões de
toneladas de lixo por ano, que hoje é descartado em diversas
partes do planeta, normalmente muito longe de onde foi produzido
originalmente. Muitas vezes isso ocorre de forma clandestina
em países menos desenvolvidos.
Um computador, por exemplo, tem cerca de 18% de chumbo,
cádmio, berílio e mercúrio, sendo o chumbo um dos metais mais
perigosos. Todos esses materiais tóxicos, descartados de forma
irregular, representam hoje um grande problema ambiental.
As substâncias perigosas contidas no e-lixo podem contaminar,
além dos aterros sanitários, o solo, os lençóis freáticos e outros
recursos naturais afetando direta e indiretamente todas as formas
de vida. A tecnologia avança de forma rápida sem se preocupar
com os artefatos que se tornam obsoletos.
Além da preocupação com descarte do lixo, temos que avaliar
formas de melhoria no ciclo de vida dos produtos, a começar
pelo uso de materiais mais sustentáveis e menos poluentes na
fabricação de novos dispositivos.
A exploração de fontes de energia renováveis, o melhor
aproveitamento dos equipamentos, o descarte responsável,
as melhorias no gerenciamento e consumo de energia e a
reciclagem de dispositivos eletrônicos, se enquadram no que
devemos ver como “o futuro na era da TI Verde”.
É possível que um dos caminhos esteja nos benefícios da
computação em nuvem, que pode contribuir muito para
reduzir a capacidade ociosa, melhorando o uso e tornando
a TI mais sustentável.
A hospedagem de sistemas em infraestrutura compartilhada
é capaz de atender a milhões de usuários em milhares de
empresas simultaneamente, reduzindo assim o consumo de
energia elétrica e a quantidade de lixo eletrônico, com melhor
aproveitamento dos equipamentos já existentes.
É importante ressaltar que os servidores que rodam em altas taxas
de utilização consomem mais energia, mas isso é compensado
pela economia obtida através da melhor utilização e distribuição
na carga de processamento e de memória.
Muitas empresas estão adotando a virtualização como forma
de economia e investindo em Cloud Computing para consolidar
seus custos em hardware e energia, e também melhorando as
estruturas dos data centers, que agora estão ganhando uma
nova versão chamada “Green”.
O “Green Data Center” busca utilizar fontes alternativas de energia
limpa, como é o caso das energias eólica, solar e oceânica. Essa
última tem a capacidade de gerar energia elétrica através da
energia cinética das ondas e ainda refrigerar por meio da troca
de calor. Essa alternativa tem sido aplicada em data centers
flutuantes, que por serem itinerantes mitigam a restrição de
espaço fisíco em áreas urbanas, hoje um grande problema
para o crescimento ou construção de data centers.
Novas pesquisas estão ajudando no desenvolvimento da
tecnologia e preservação de recursos, explorando formas
sustentáveis para que o avanço tecnológico não afete o futuro
do meio ambiente.
Para saber mais:
http://convergenciadigital.uol.com.br/cgi/cgilua.exe/sys/start.htm?infoid=25420&sid=97
http://www.cpqd.com.br/highlights/265-sustentabilidade-e-eficiencia-em-ti.html
ht tp: // in fo.abril.com.br/corpora te/noticias/google -obtem-patente - de - dat acenter-flutuante-04052009-0.shtml
66
Technology leadership council Brazil
a esTraTégia e sua operacionalização
Luciano Schiavo
Que empresário não gostaria de ter maior lucratividade e foco no
cliente, reduzir custos, ter processos mais enxutos e funcionários
com o perfil profissional ideal? Não existe só um caminho para
atingir esses objetivos, mas é possível trabalhar com algumas
teorias e metodologias que facilitam e simplificam essa tarefa.
Michael Porter escreveu em seu artigo “What is Strategy” (Harvard
Business Review, pg 61-78, Nov/Dec, 1996) que a estratégia
é a criação de uma única e valorável posição envolvendo um
diferente conjunto de atividades. Essa posição também está
relacionada à decisão do tipo de atividades que não se deve fazer.
Ainda nesse contexto, cabe a decisão
sobre a terceirização de serviços como
por exemplo, TI, permitindo dessa forma
maior foco nas atividades diretamente
ligadas ao negócio. Para Michael Porter,
a redução de custos por si só não é uma
estratégia e sim uma autocanibalização,
porque compromete as margens de lucro
durante um longo período de tempo.
Após a definição da estratégia, ela deve
ser operacionalizada e uma das maneiras de se fazer isto é
por meio da metodologia Balanced Scorecard (BSC), criada
por Kaplan e Norton. Eles identificaram quatro perspectivas
que geram muito valor quando utilizadas em conjunto.
A perspectiva financeira estrutura qual será o sucesso baseado
no retorno financeiro. A perspectiva do cliente estabelece
como a organização deseja ser vista pelos clientes e remete
a perspectiva de processos internos que identifica como os
mesmos devem ser adaptados para entregar o produto ou
serviço ao cliente. A perspectiva de aprendizado e crescimento
permite analisar se a empresa possui todo conhecimento e
habilidades necessários para entregar o que foi definido na
estratégia.
O próximo passo, depois de criar os objetivos para cada
perspectiva, é criar os KPIs (key performance indicators ou
indicadores chaves de desempenho) que permitirão acompanhar
a evolução da implementação da estratégia. Geralmente nesse
ponto, o contraste com os KPIs atuais da empresa mostra que
alguns esforços não estavam alinhados com a estratégia da
empresa. Nessa fase é comum iniciar projetos com o objetivo
de criar e coletar algumas informações para os novos KPIs.
Em 2010 surgiu uma pesquisa (Harvard Business Review,
Spotlight on Effective Organization: How Hierarchy Can
Hurt Strategy Execution, Jul/Aug, 2010)
que apresentou e categorizou os
maiores obstáculos para a execução
da estratégia. Os maiores ofensores
eram falta de tempo e restrições de
recursos. Quando considerada a estrutura
organizacional, a maior dificuldade estava
na tradução da estratégia em execução, o
alinhamento dos cargos e fazer com que
essa estratégia seja significativa para a
linha de frente. Outros estudos também
identificaram problemas na condução do BSC devido aos vieses
de julgamentos ao se avaliar o desempenho dos indicadores.
A grande oportunidade e ao mesmo tempo desafio é formular
qual será a estratégia e o que realmente deve ser medido.
A vantagem de seguir essa abordagem de estratégia mais
indicadores é que os executivos podem ver de forma clara o
que realmente é essencial para então priorizar corretamente os
projetos. Finalmente, essa abordagem também ajuda a empresa
a perseguir um único objetivo, alinhar as tarefas, as prioridades,
a comunicação e evitar as “armadilhas” do micro gerenciamento.
Para saber mais:
http://www.isc.hbs.edu/
http://www.balancedscorecard.org
http://www.lean.org/WhatsLean/History.cfm
67
Technology leadership council Brazil Technology leadership council Brazil
a evolução do nasHélvio de Castro Machado Homem
O assunto Big Data, cada vez mais presente nas agendas
executivas, e o enorme crescimento de dados gerados a
cada dia fazem as empresas e os provedores de serviços de
TI, inclusive de Cloud Computing, repensar suas estratégias
de armazenamento de dados. As tecnologias para esse fim
vêm evoluindo de forma significativa, permitindo assim uma
distribuição mais inteligente dos dados e com menor custo.
Um bom exemplo disso é a tecnologia NAS (Network Attached
Storage), que surgiu no início da década de 90 exclusivamente
para desempenhar o papel de servidor de arquivos e que vem,
desde então, ganhando novas melhorias e funcionalidades.
O NAS utiliza a topologia de redes do padrão Ethernet. Operando
com os tradicionais cabos metálicos de par trançado, que tem
menor custo de implementação, já atende de forma bastante
satisfatória a requisitos de performance. Pode-se ainda adotar
o padrão de redes que opera em velocidade de 10 Gbps em
ambientes que demandam maior desempenho.
Além dos tradicionais protocolos com base em arquivos, a partir
de 2001 alguns equipamentos que fornecem a tecnologia NAS
passaram a permitir também a utilização de protocolos com base
em blocos, característicos da SAN (Storage Area Network), mas
utilizando também o padrão de redes Ethernet. Os primeiros
permitem o acesso direto à estrutura de arquivos e diretórios,
enquanto que aqueles com base em blocos “entregam” os
dados em um formato encapsulado para o cliente do sistema
de storage (por exemplo, um servidor de banco de dados) com
maior desempenho.
Existem opções de equipamentos que fornecem as tecnologias
NAS e SAN de forma integrada, essa última através de
Ethernet e Fibra Ótica. Esses equipamentos são normalmente
chamados de unificados ou multiprotocolos. Principalmente
em cenários em que não se pode abrir mão da velocidade
oferecida somente pela tecnologia de fibra ótica, isso se torna
bastante interessante pois, devido à sua grande flexibilidade,
permite que diferentes requisitos sejam atendidos com menores
custos de aquisição e manutenção.
Outra tecnologia que tem avançado de forma considerável é
o Scale-Out NAS, uma evolução do NAS tradicional, que tem
um cluster composto por no máximo dois nós. O Scale-Out
NAS é muito mais escalável e permite a utilização de diversos
nós espalhados geograficamente, mas que aparecem com
um único dispositivo ou ponto de acesso para o usuário final.
Isso se torna especialmente importante para serviços de
armazenamento de arquivos, como os fornecidos através de
Cloud Computing. Neles, o usuário, ao gravar seus dados
na nuvem, não tem a menor ideia de onde eles estão sendo
armazenados fisicamente. O importante é que eles possam
ser acessados de forma simples e rápida.
E é exatamente a utilização em Cloud Computing, além do Big
Data, mídias sociais e mobilidade, os principais motivos pelos
quais o IDC estima que a receita do mercado da tecnologia
Scale-Out NAS deverá mais que dobrar até 2015 (de 600 milhões
para 1,3 bilhão de dólares).
Ainda de acordo com o IDC, o mercado de storage com base
em arquivos de forma geral cresceu significativamente nos
últimos anos e essa tendência deve permanecer ao menos até
2015. Para se ter uma ideia, em 2011, esse mercado representou
cerca de 72% da capacidade de storage comercializada no
mundo e até 2015 deve chegar aos 80%.
A combinação de diferentes tecnologias de storage permite
compor um ambiente híbrido, com camadas diferenciadas por
performance e protocolo. Essa é a melhor forma de atender a
requisitos técnicos e de negócio e ainda otimizar os custos de
armazenamento de dados.
Para saber mais:
http://www-03.ibm.com/systems/storage/network/
http://en.wikipedia.org/wiki/Network-attached_storage
68
Technology leadership council Brazil
vai para a nuvem ou não vai? Antônio Gaspar
Agora tudo vai para
a nuvem!” É bem
provável que você
tenha se deparado
com essa frase. À
computação em nu-
vem, associam-se
prerrogativas de es-
calabilidade, elasti-
cidade e rápido provisionamento, sem falar nas promessas
de reduções em custos, que promovem grande expectativa
e euforia no mercado. Tudo isso é possível, é real, mas têm
sua condições. Afinal, como disse Milton Friedman, “there is
no (...) free lunch”.
Então, será mesmo que tudo vai para a nuvem? A resposta
mais sensata seria: depende. Em outras palavras, é preciso
avaliar os requisitos funcionais e não funcionais de cada
workload (aplicações e demais sistemas candidatos à cloud).
Em contrapartida, é preciso verificar sua aderência aos padrões
e requisitos intrínsecos de um servico em nuvem. Exploremos,
portanto, alguns dos aspectos qualificadores em um processo
de avaliação de elegibilidade à migração para cloud.
Virtualização. É um dos três pilares fundamentais de cloud
computing, além da padronização e automação. Na análise de
portabilidade de um workload para cloud, é importante verificar
sua compatibilidade com o respectivo sistema hypervisor (camada
de software entre o hardware e a máquina virtual), disponibilizado
pelo serviço na nuvem. Este detalhe pode parecer irrelevante
mas faz toda a diferença, especialmente no que diz respeito
a garantir suporte de terceiros às respectivas aplicações em
ambiente virtualizado, na nuvem.
Capacidade computacional. Aplica-se especialmente na
adoção de modelo IaaS (Infrastructure as a Sevice) de cloud,
no qual é preciso estimar as capacidades de armazenamento e
processamento que serão demandadas versus as que podem
ser disponibilizadas pelos recursos na nuvem.
Funcionalidades. Intrínseco na adoção de modelo PaaS (Platform
as a Sevice) e SaaS (Software as a Service) de cloud, no qual se
deve verificar os recursos funcionais e possíveis parametrizações
de um serviço cloud, a fim de avaliar sua aderência funcional
aos respectivos requisitos de aplicações de negócios.
Licenciamento de software. Este aspecto tem impacto direto no
TCO (Total Cost of Ownership). Provedores de software estão
se adaptando e estabelecendo as políticas de licenciamento
de seus produtos, especificamente voltadas à utilização em
ambiente cloud. Embora não seja um quesito propriamente
técnico, conhecer as políticas de licenciamento é um fator
crítico na análise de elegibilidade, pois mitiga riscos de custos
imprevistos no pós-migração para a nuvem.
Interoperabilidade. Com a diversidade de modelos e provedores
de cloud, deverão eclodir ecosistemas de TI heterogêneos
nos quais os workloads estarão distribuídos entre ambientes
tradicionais e uma ou mais nuvens. Sendo assim, é preciso
avaliar o grau de acoplamento, que representa o nível de
dependência entre os diversos módulos funcionais distribuídos.
Módulos com alto grau de acoplamento, sendo executados em
ambientes geograficamente distintos, exigem uma atenção
especial, por exemplo, quanto a latência de rede e impactos
de indisponibilidades em “nuvens isoladas”.
Níveis de serviço. Cada workload tem uma criticidade associada,
alinhada aos resquisitos de negócios. É preciso verificar, portanto,
se os SLAs (Service Level Agreement) disponibilizados pelo
provedor de serviços de cloud atendem a esses requisitos.
Segurança. Esse é um tópico que certamente merece mais
espaço e discussão. Por hora, ressaltam-se a garantia de
confidencialidade, o controle de acesso aos dados e, devido
a questões regulatórias, a localização do repositório na nuvem.
Importante ressaltar que esses qualificadores variam sua
relevância de acordo com o tipo de cloud adotada. Clouds
privadas normalmente são implementadas e direcionadas pelas
políticas de TI da empresa, potencializando-se o espectro de
elegibilidade dos workloads. Especificamente nas clouds públicas
e nas clouds privadas compartilhadas que esses qualificadores
são mais relevantes. Conhecer bem os workloads e os serviços em
nuvem é, portanto, fundamental para adoção de cloud computing.
Esse novo conceito quebra paradigmas dos modelos atuais
em disponibilização de TI como serviços. É real e irreversível,
promovendo uma transformação sem precedentes nos modelos
de organização, processos e tecnologias da informação.
Para saber mais:
https://www.ibm.com/developerworks/mydeveloperworks/blogs/ctaurion/?lang=en
https://www.opengroup.org/cloudcomputing/uploads/40/23840/CCRA.IBMSubmission.02282011.doc
69
Technology leadership council Brazil Technology leadership council Brazil
profissão: arquiTeTo de negócios
Marcelo de França Costa
No final da década de 90 eu costumava ser chamado de analista
de sistemas. Esse título me permitia atuar em todas as fases
do ciclo de desenvolvimento de software, do levantamento de
requisitos à arquitetura da solução, passando pela modelagem
dos dados, implementação e testes. Hoje, entretanto, deparamos
com carreiras cada vez mais especializadas. No contexto de
uma nova área de conhecimento (Informática tem menos de
um século de existência), as respectivas profissões, bem como
suas especializações, ainda estão se consolidando, sempre
guiadas pelo mercado. Uma das mais recentes, com cerca de
apenas uma década, é a de arquiteto de negócios.
Arquitetura de Negócios, assim como sua “irmã”, a Arquitetura
Corporativa, são respostas a uma compreensível necessidade
do mercado: alinhar Tecnologia da Informação (TI) com a
estratégia e objetivos de negócio.
Terminologias à parte, muitos
concordam que a diferença básica
entre ambas é o foco. A primeira se
interessa pelo planejamento macro
do negócio, analisando a supply
chain (cadeia de suprimentos)
na qual a empresa se insere, o
modelo operacional, a cadeia de
valor e a lacuna entre o “hoje” e o
“desejado” no âmbito da missão e
visão da companhia. Já a segunda
parte dos objetivos de negócio
e de uma visão estratégica de
TI (o que inclui governança,
suporte à gestão do portfólio de
projetos, infraestrutura, pessoas e sistemas). Deixando de lado
as diferenças, ambas caminham juntas quando o assunto é
suportar os processos de negócio com o uso racional da TI.
Ao centro, a figura (retirada do US National Institutes of Health)
exemplifica um framework onde a Arquitetura de Negócios é
mostrada como parte (disciplina) da Arquitetura Corporativa.
No que tange às profissões, outra comparação comum está
relacionada ao analista de negócios. Enquanto esse, normalmente,
está interessado apenas nos processos de uma unidade de
negócio ou departamento, o arquiteto se preocupa em modelar
e analisar a empresa como um todo.
A disciplina de Arquitetura de Negócios vem crescendo em
importância, assim como a demanda por profissionais com
habilidades específicas: formação em administração (MBA ou
graduação em Engenharia de Produção, por exemplo), porém com
ênfase em TI. Para Alex Cullen, analista da Forrester Research,
“é um papel construído ao redor do planejamento de negócio,
descobrindo oportunidades para utilizar TI mais efetivamente” em
vendas, serviços ao consumidor e outras áreas críticas. Segundo
o InfoWorld, é atualmente uma das seis carreiras mais atrativas
em TI, com grande potencial de crescimento nos próximos anos.
Como todo profissional, o arquiteto de negócios também utiliza
um conjunto específico de ferramentas. Nesse quesito, muitas
empresas adotam o TOGAF (The Open Group Architecture
Framework) para implantar e evoluir suas arquiteturas. O TOGAF,
que à semelhança do PMBOK (Project Management Body of
Knowledge) também teve sua origem no DoD (US Department
of Defense), compreende métodos
e ferramentas consi-derados
como melhores práticas. Estru-
turado em fases, possui uma,
conhecida como Phase B, que
trata da Arquitetura de Negócios,
examinando como a empresa
deve operar para alcançar seus
objetivos.
Uma atividade realizada nessa fase
é a criação de modelos. Para tanto,
o ArchiMate é a linguagem padrão
que permite descrever, analisar
e visualizar os relacionamentos
contidos nos domínios do negócio.
Tais modelos ilustram diferentes aspectos (viewpoints) em níveis
de abstração diversos, desde o relacionamento com clientes
e fornecedores (um caso de uso de negócio, por exemplo) até
aspectos internos como plataformas tecnológicas que suportam
os processos de negócio.
De forma breve, procurei apresentar aqui a disciplina de
Arquitetura de Negócios, bem como o papel do arquiteto de
negócios. Tanto para profissionais como para empresas, o
momento é oportuno para que desenvolvam expertise nessa
área de conhecimento, cada vez mais demandada pelo mercado.
Para saber mais:
http://www.businessarchitectsassociation.org/
http://www.opengroup.org/togaf/
70
Technology leadership council Brazil
quaTro horas?Sergio Varga
Imagine as seguintes sequências de
ações: (1) sair de casa, pegar o carro,
ir ao shopping, comprar um bilhete
para o cinema, assistir a sessão de cinema, pegar o carro no
estacionamento e voltar para casa; ou (2) sair de casa, pegar
um táxi, ir ao estádio de futebol, comprar o ingresso, assistir
ao jogo e voltar para casa de táxi. Quanto tempo, em média,
levaria para executar essas sequências? Vamos assumir que
quatro horas é um número razoável?
Por outro lado, imagine uma empresa que pretende colocar
o seu site de vendas em um novo servidor no seu datacenter.
Qual é o tempo necessário para habilitar tal serviço, desde a
instalação do equipamento no datacenter até iniciar o serviço,
já pronto para ser usado pelo usuário? Um mês? Uma semana?
Um dia? Quatro horas?
Quem afirmou “um mês” com certeza pensou no modelo
tradicional de serviços em TI onde é necessário instalar o
servidor no datacenter, configurar as conexões de rede e de
armazenamento, instalar o sistema operacional e configurá-lo,
instalar e customizar servidor de web e de banco de dados
e finalmente instalar a aplicação web. Sem falar na alocação
dos profissionais de várias áreas de suporte como rede,
armazenamento, servidor e outras.
Aquele que pensou em “uma semana” talvez tenha considerado
um servidor já instalado no datacenter, possivelmente virtual,
utilizando imagens padronizadas e previamente criadas, já com
o sistema operacional e, eventualmente, até com a instalação
e configuração do software e da aplicação.
Os mais otimistas, que pensaram em “um dia”, com certeza
consideraram um ambiente previamente configurado em teste,
exigindo apenas personalizações mínimas para habilitar o sistema
em produção, ou ainda um ambiente em cloud privada com
as imagens já definidas e configuradas, exigindo somente a
instalação da aplicação.
E se houvesse a possibilidade de habilitar
essa aplicação em apenas quatro horas?
Muitos diriam que é ainda um sonho,
mas hoje já é possível.
Algumas empresas disponibilizaram soluções nas quais, por
meio de integração entre tecnologias de rede, armazenamento
e servidor em um único chassis que, com uma camada de
automação, possibilitam rapidamente implantar aplicações em
poucas horas. Essas soluções consolidam o conhecimento de
diversos profissionais e demanda um contingente técnico menor
para administrá-las e suportá-las.
É a tecnologia a serviço da tecnologia ou, ainda, é a tecnologia
a serviço da gestão de TI. Isso já ocorreu com a utilização
de robôs, mas agora está acontecendo na área de sistemas
computacionais.
Em um mundo altamente conectado e inteligente, a capacidade
de reagir de uma maneira rápida a mudanças pode ser um
diferencial competitivo. E com certeza podemos visualizar novas
soluções que poderão surgir dentro desse conceito como na
área de business analytics, com soluções persononalizadas
para segmentos específicos de indústria, ou sistemas cognitivos
com soluções integradas que envolvam o conhecimento de
uma determinada área de negócio.
Com essa tecnologia surge também um novo tipo de profissional:
o administrador de sistemas integrados, que precisa entender
as várias tecnologias utilizadas e as várias disciplinas de
administração como gerenciamento de usuários, segurança,
monitoração e desempenho. Será que podemos estar entrando
em uma nova era da gestão de TI?
Para saber mais:
http://www.youtube.com/watch?v=g9EGP2tkoQw&feature=colike
http://tech.journeytofrontier.com/2012/04/ibm-unveils-puresystems.html
71
Technology leadership council Brazil Technology leadership council Brazil
se BoTar sua repuTação na viTrine, ela vai valer mais que r$ 1,99? Wilson E. Cruz
Muitas vezes um fato cor-
riqueiro e aparentemente
insignificante pode ser o
gatilho ou o catalisador
para uma ideia. Serve tudo,
até mesmo algo bem trivial,
por exemplo uma simples
transação de troca de figu-
rinhas do álbum de meu filho.
Mais especificamente uma
troca articulada pela Internet.
O site é simples: o usuário se
registra, cadastra um álbum que está colecionando, as figurinhas
repetidas que tem, as que lhe faltam, e o site se encarrega de
fazer o “match”, ou seja, oferecer as possibilidades de troca,
que são, obviamente, concluídas no mundo real, com o envio
das figurinhas repetidas e o recebimento das desejadas, pelo
correio. A sutileza dessa transação está no seguinte: como
confiar naquele fulano que diz que vai mandar as figurinhas
que você precisa?
A resolução desse impasse, nesse site, é simples e notável:
cada vez que se fecha uma transação de troca, é gerada para
os dois lados uma pendência de avaliação, que é resolvida
quando o recebedor declara que recebeu as figurinhas conforme
combinado e, portanto, está satisfeito com o remetente. Ao
registrar o recebimento, é gerada uma pontuação ao remetente.
O acúmulo de pontos se traduz em patamares de reputação,
representados por um símbolo que fica colado ao perfil pessoal
do usuário e que aparece o tempo todo, inclusive quando uma
troca está sendo proposta. Ou seja, ao decidir se uma troca é
interessante, a reputação de um usuário aparece claramente
e influencia na decisão do outro. Trocar com um “arquiduque”
que já fez mais de duas mil trocas é mais seguro e garantido
do que trocar com um “peregrino” que não tem ponto algum.
Mas e as primeiras trocas? Se um novato não tem pontos, então
não tem reputação. E aí? É simples. Quem não tem pontos é
convidado a enviar as suas figurinhas antes, de tal maneira
que o outro espera chegar, avalia positivamente, gerando os
primeiros pontos para o remetente, e a partir daí envia as suas,
resolvendo o problema de falta de reputação inicial.
Esse processo nos dá de brinde uma definição importante:
reputação no mundo virtual é a repetição de interações bem-
sucedidas. Pode ser uma interação de troca, mas também
poderia ser, em outro site, a resposta correta a uma pergunta,
o pagamento em dia de uma dívida ou a prestação eficiente
de um serviço.
Mas podemos assumir que alguém que faz centenas de
trocas bem-sucedidas é um bom pagador de suas dívidas ou
compromissos? E quem responde corretamente muitas dúvidas
sobre um assunto, pode ser um bom prestador de serviços
relacionados a esse assunto?
Essas perguntas geram um enorme campo para se pensar
e se articular novos negócios: um varejista poderia incluir a
reputação registrada no site de trocas para fortalecer a análise
de crédito daquele senhor que quer comprar uma televisão a
prazo. O cidadão interessado em contratar um bom marceneiro
para fazer seus móveis de sala poderia começar sua seleção
nos sites de aficionados por marcenaria, buscando os mais
frequentes, fiéis e competentes respondedores de dúvidas.
Múltiplas características, competências ou virtudes dão origem
a múltiplas reputações, ou praticamente um “currículo virtual” de
reputações confirmadas por interações virtuais bem-sucedidas
em vários campos. E dá para imaginar o valor que esse currículo,
bem administrado, pode ter para quem quer realizar atividades
e negócios na rede.
A coleta de dados que buscam quantificar a reputação já
é uma realidade. Mas cada um tem a própria fórmula, não
necessariamente a correta ou a mais útil. Ninguém, ainda, fez algo
de realmente inovador na área da administração e intercâmbio
de reputações, sustentando transações de valor comercial.
Teríamos aí um novo candidato a bilionário?
Para saber mais:
http://www.trocafigurinhas.com.br
http://trustcloud.com
72
Technology leadership council Brazil
o que é segurança da informação
Avi Alkalay
Você sabia que o tema segurança vem sendo apontado por
anos consecutivos como um dos assuntos que mais geram
interesse no mercado de TI? Os provedores de tecnologia
gostam de abordá-lo na mídia e em eventos, devido aos muitos
produtos e serviços que podem ser ofertados, num padrão
similar ao da “indústria do medo” na área de segurança pessoal
e carros blindados.
Por exemplo, se uma vulnerabilidade é maliciosamente explorada
numa empresa, o responsável pela segurança será severamente
punido pelo seu superior. E um fator psicológico que ameniza
isso parece ser adquirir vários produtos de segurança para
lançar-lhes a culpa no caso de um incidente.
Também é fato que quanto mais produtos
de segurança uma empresa adquire,
mais produtos haverá para gerenciar e
não necessariamente estará mais segura.
Eleva-se, aliás, a chance de estar insegura
devido ao aumento de complexidade na
operação do ambiente.
Então o que é segurança? Uma definição
que eu gosto é “segurança em TI se
interessa por tudo que abrange a
confidencialidade, disponibilidade e inte-
gridade da informação”. Essa definição
tem derivações óbvias: “estamos inseguros se alguém de fora
pode ver as informações internas de nossa empresa”; “estamos
inseguros se nossos dados desaparecem”; e “estamos inseguros
se alguém modifica maliciosamente nossas informações”.
Mas o que muitos ignoram é que a informação pode ser exposta,
perdida ou deteriorada por fatores operacionais e não maliciosos,
como um disco lotado ou uma configuração equivocada de
algum software que nada tem a ver com segurança. Até uma
aplicação desenvolvida internamente, talvez por um programador
inexperiente, pode consumir todo o poder de processamento
de um servidor, deixando seu serviço, e por consequência a
informação, indisponível.
Segurança não é firewall. Não são senhas. Nem serviço que se
adquire como uma caixa-preta. Nem criptografia. Nada disso
vale se estiver em mãos inexperientes ou inconsequentes.
Segurança corporativa em TI deve ser um valor perene em
todos os participantes do fluxo da informação, ou seja, todos os
colaboradores de uma empresa. É um processo. E sendo assim,
deve estar presente desde a confecção de uma aplicação por
um programador até seu uso na mesa do usuário final.
O passo inicial é adotar um método. O segundo é aplicá-lo
na área de desenvolvimento de aplicações, que, concebidas
com preocupações de segurança, fazem com que seja mais
fácil garantir segurança real mais adiante. Uma boa prática é
não reinventar a roda sempre que um programa novo estiver
sendo escrito. O uso de um framework maduro de mercado,
como o Java Enterprise Edition, pode ajudar a resolver esses
problemas e abstrair níveis que o programador corporativo não
precisa abordar.
Costumo dizer também que segurança
é sinônimo de organização. É possível
conceber segurança num data center
desorganizado? Faremos um bom traba-
lho se organizarmos a TI sem pensar
em segurança? Não há segurança sem
organização e vice-versa.
É comum também encontrar empresas
em que segurança tem tamanha ênfase
(às vezes em níveis neuróticos), que fazer
certos negócios passa a ser proibitivo,
porque “é inseguro”. Reflexo comum disso é não permitir o
uso das ferramentas práticas de mensagem instantânea ou de
redes sociais. Mas ao fazer isso pode-se perder a oportunidade
de gerar relacionamentos com clientes ou parceiros que usam
intensivamente essas ferramentas. Então é bom ou ruim permitir
esse tipo de abertura? A experiência tem mostrado que o
resultado geral é positivo quando se permite a comunicação
entre as pessoas.
O paradoxo é que empresas só fazem negócios quando seus
funcionários se comunicam com o mundo externo e o impulso
natural da segurança é restringir isso. Proteger a informação não
significa torná-la indisponível. Portanto, nem tanto ao céu, nem tanto
à Terra: segurança em TI deve ser gerida de forma responsável,
consciente, com a mente aberta e, principalmente, inovadora.
Para saber mais:
http://WorldOfEnds.com
73
Technology leadership council Brazil Technology leadership council Brazil
a maTemáTica do acaso
Kiran Mantripragada
“Deus não joga dados com o universo”. Apesar de suas
contribuições para o nascimento da mecânica quântica, Albert
Einstein não conseguia aceitar a sua formulação probabilística.
Isso ficou claro quando Einstein escreveu essas palavras
para o seu amigo Max Born, em uma tentativa de refutar o
desenvolvimento matemático de Werner Heisenberg, responsável
pela fundamentação do Princípio da Incerteza. A frase mostra
a dificuldade de Einstein em aceitar que a natureza possa ter
algo de imprevisível ou de aleatório. A ciência atual prega que
Einstein estava errado nessa questão.
Infelizmente essas palavras se tornaram muito conhecidas fora
do mundo científico e são, frequentemente, usadas em debates
religiosos ou filosóficos, talvez até de forma equivocada, onde se tenta
justificar a existência de um “destino” ou um futuro predeterminado.
Mas a Teoria das Probabilidades ainda nem havia nascido
formalmente. Essa matemática que tenta descrever o acaso
só foi fundamentada em 1957 por Andrey N. Kolmogorov, ou
seja, alguns anos depois de Einstein e Heisenberg. Por outro
lado, os conceitos de probabilidade, aleatoriedade, acaso e
imprevisibilidade já faziam parte do senso comum desde a
antiguidade clássica.
Há tempos que essas noções já vinham sendo utilizadas em
diversos lugares, desde jogos de azar, cassinos, jogos de dados,
cara-ou-coroa, adivinhação, tomadas de decisão em negócios,
análise de riscos e até na legislação.
Entretanto, é comum o ser humano cometer erros quando
submetido à noção de acaso. Um exemplo clássico é a “Falácia
do Apostador” no qual os jogadores mantém uma crença comum
de que, após uma sequência de perdas em jogos de azar, sempre
se seguirá uma sequência de ganhos (e vice-versa) como uma
espécie de auto compensação.
Mas o que significa aleatoriedade? Será que na natureza existem
realmente eventos aleatórios ou absolutamente imprevisíveis?
Mesmo antes de Kolmogorov, já era comum usar a brincadeira de
cara-ou-coroa para mostrar os conceitos de imprevisibilidade e
de probabilidade. Sabe-se que mesmo havendo 50% de chances
de cair uma determinada face, não se pode afirmar com certeza
o que deve acontecer na próxima jogada. Isso não significa que a
matemática está errada. Ela prova apenas que, em uma quantidade
infinita de jogadas, o número de aparições de uma determinada
face tende a 50%. Ainda, se o leitor quiser ser pragmático, pode
afirmar que este infinito deve ser um número par, pois se for um
“infinito impar” o valor nunca será exatamente 50%.
Controvérsias à parte, será que podemos afirmar que
aleatoriedade realmente existe na natureza? Mais um vez, se
o leitor for um tanto pragmático, pode afirmar que o jogo de
cara-ou-coroa é descrito pela mecânica clássica de Newton,
ou seja, se forem conhecidas com precisão todas as condições
iniciais e condições de contorno (como velocidade inicial, força,
vento, atrito, massa, centro de massa da moeda, etc.), pode-se
então calcular qual face deverá cair voltada para cima.
Na realidade este é exatamente o problema da previsão
meteorológica, pois assim como na moeda, qualquer instabilidade
ou imprecisão nas condições iniciais podem trazer resultados
divergentes. É o tal do “efeito borboleta”, mas isso é assunto
para a Teoria do Caos, que difere do conceito de aleatoriedade.
E no computador? Já imaginou como “gerar” um número
aleatório? Um cientista da computação sabe que gerar um
número randômico não é algo trivial, por isso é comum o uso
da expressão “pseudoaleatório” para estes números gerados
artificialmente. Em resumo, o computador precisa de uma fórmula
para gerar números, mas se existe qualquer fórmula matemática
para isso, o tal número gerado é essencialmente não aleatório,
pois ele pode ser calculado a priori.
Este artigo não tem como propósito trazer conclusões sobre
o tema, mas proporcionar insumos para discussões mais
aprofundadas, talvez em um boteco com os amigos. E para
isso, que tal começar com a frase: “Provavelmente a natureza
não é determinística”.
Para saber mais:
Artigo: What is a random sequence? (Sergio Volcham)
http://pt.wikipedia.org/wiki/Aleatoriedade
Imagem obtida no site http://filipinofreethinkers.org/
74
Technology leadership council Brazil
a origem do logical daTa warehouse (ldw)Samir Nassif Palma
A gestão da informação tem um valor cada vez maior nas
organizações. Grandes volumes de dados são manipulados
diariamente com o objetivo final de suportar o processo de
tomada de decisão.
Essa história começou há 30 anos com os sistemas de suporte à
tomada de decisão ou Decision Support Systems (DSS). Depois,
vieram os armazéns de dados ou Data Warehouses (DW), que
são protagonistas da habilidade de prover um ambiente analítico
para inteligência do negócio ou Business Intelligence (BI). Em
seguida, os DWs cresceram e se tornaram corporativos, onde
todos os departamentos são fornecedores e consumidores de
informação em um ambiente estruturado.
Surge o conceito do Enterprise Data Warehouse (EDW), que
veio para ficar. Porém, com o crescimento do volume de dados
e do número de consumidores, o desempenho de resposta
desses sistemas passa a determinar o valor real do ambiente
analítico para a empresa. A informação precisa ser obtida no
tempo necessário, sob pena de não ter mais significado para
o negócio. É a latência da informação, principal requisito para
os ambientes informacionais.
Tal requisito tem gerado investimentos em recursos tecnológicos,
como processadores mais potentes, redes mais velozes, discos
magnéticos com armazenamento particionado, paralelismo de
acessos, entre outros, que proporcionam um melhor desempenho
aos usuários finais. Entretanto, tal ganho é temporário. A matu-
ridade e o valor agregado do ambiente informacional cresce
proporcionalmente à sua quantidade de acessos. Quanto mais
acessos, maior é o uso, e assim maior é sua importância e outra
vez o desempenho pode ser afetado.
Também são realidade as iniciativas paralelas e pulverizadas
conduzidas por diversas áreas da organização, que adotam
processos próprios e tecnologias que diferem dos padrões
definidos por TI. Além disso, novos tipos de dados devem
ser processados e consumidos, e representam alto valor ao
cliente-consumidor. São dados não estruturados, estimados em
80% do total disponível, o que inclui emails, textos, planilhas,
posts em redes sociais, blogs, vídeos, etc. O próprio percentual
já indica um salto no volume total, hoje avaliado na casa dos
zettabytes (1021 bytes). É o Big Data aparecendo como forte
candidato a protagonista.
Há, portanto, diferentes fatores que pressionam a busca por
alternativas na gestão informacional, sem esquecer sua própria
governança e o aproveitamento dos componentes legados.
Assim, em 2009, surgiu o conceito de ambiente informacional
(ou analítico) lógico, ou Logical Data Warehouse (LDW), que
propõe a adoção de uma visão completa, integrada e abrangente
de todos os ativos de informação da organização, visão que é
suportada por diferentes recursos tecnológicos em múltiplas
plataformas. O conceito em si propõe o papel de uma nova
agregação dos dados. Há uma quebra de paradigma se
comparado ao EDW, onde o dado é centralizado. O LDW é
composto por múltiplos repositórios de dados, elementos de
distribuição de processos, descentralização de cargas de
trabalho, plataformas especializadas, virtualização de dados,
e uma eficiente gestão de metadados.
Os metadados são dados que descrevem e explicam dados e
se tornam chave nessa visão, principalmente na orquestração
dos acessos às bases e entre os ativos que armazenam os
dados requisitados. A inteligência passa para a definição de
qual elemento do ambiente responderá à demanda solicitada.
Surge o Catálogo de Informações e sua governança.
O LDW protege o investimento da organização em plataformas
de dados, aproveitando o legado informacional e permitindo
dedicar novos investimentos em demandas especializadas
(appliances, por exemplo). Para o negócio, o LDW representa a
adaptação e resposta às crescentes exigências informacionais
do mercado, com altos volumes e variedade.
A informação como ativo de valor da organização não precisa
estar centralizada, mas sim sua governança, o que inclui a
gestão de metadados, o controle e a administração da
informação.
Para saber mais:
http://thinking.netezza.com/blog/logical-data-warehouse-smart-consolidation-smarter-warehousing
75
Technology leadership council Brazil Technology leadership council Brazil
sTorage & fracTais
Márcia Miura
Quando recebi o convite para visitar o laboratório de storage
da IBM em Tucson (EUA) logo imaginei uma sala repleta de
bancadas com nerds debruçados sobre equipamentos, vísceras
expostas... conseguiria eu estabelecer comunicação com os
cientistas e aprender algo?
Essa imagem inicial foi apenas um dos aspectos da minha
experiência que foi, no mínimo, fascinante. Trabalho desenhando
soluções de storage nas quais são considerados aspectos
práticos como custos, desempenho e arquitetura, sempre com
o viés de negócios. O dimensionamento de uma solução de
armazenamento passa por modelagem de dados e análise do
comportamento do aplicativo de um determinado cliente. Dessa
forma, sob o ponto de vista do conhecimento científico, eu sou
quase usuária final das ferramentas e
produtos exaustivamente estudados e
testados no laboratório.
A primeira reunião de que participei
referiu-se ao comportamento dos dados
em memória cache e sua representação
matemática em um novo subsistema de
discos. A influência de um novo nível de
cache no subsistema é comprovada
por meio da medição de desempenho
dos diversos tipos de cargas de leitura
e gravação. Tal como na Física Quântica,
que estuda o comportamento do elétron
e tenta descrevê-lo por meio de equações, o comportamento
dos dados em cache também precisa ser estudado e descrito
por equações, que por sua vez devem ser inseridas em um
software de modelagem para executar simulações. Esse estudo
exige medições com variáveis distintas até que se obtenha uma
conclusão que afetará o dimensionamento das soluções para
os clientes de storage.
Na discussão acalorada entre especialistas sobre o compor-
tamento dos dados em cache, fiquei abismada ao saber que
a Teoria dos Fractais também se aplica ao padrão de acesso
aos dados nos diferentes níveis de memória incluindo cache.
Benoit Mandelbrot (1924 - 2010), pesquisador da IBM, enunciou
em 1975 que qualquer formato na natureza pode ser descrito
matematicamente em frações que ele chamou de Fractais.
Qualquer formato irregular como a estrutura de uma nuvem,
uma montanha, um brócoli ou um alvéolo pulmonar, podem ser
quebrados infinitamente em frações que se repetem, formando um
padrão. Mandelbrot analisava gráficos de erros de transmissão
de dados, e notou que o padrão de erros era igual para 1 dia, 1
hora e 1 segundo. A visão microscópica era a repetição da visão
macro. Essa descoberta foi importante também para diversas
outras áreas, como nos programas de diagnóstico de tumores,
nos efeitos especiais de filmes de ficção (Star Trek foi o primeiro
a usar essa técnica) e no design das antenas de celular.
A organização do armazenamento de dados em hierarquias
de cache tornou possível melhorar o desempenho de acesso,
mas trouxe o desafio de criação de algoritmos cada vez
mais complexos para o gerenciamento de cache. Bruce Mc
Nutt, engenheiro sênior da divisão de
storage da IBM, observou o acesso a
dados num mainframe e descreveu o
padrão repetitivo no livro “The Fractal
Structure of Data Reference”. O perfil
de acesso na memória do servidor se
repetia nos buffers dos processadores,
na memória central do processador,
no cache do subsistema de discos
e nos discos físicos. O mérito dessa
constatação é que os desenvolvedores
e arquitetos de produtos de software e
hardware podem elaborar algoritmos
inteligentes, que otimizem o uso dos diversos níveis de
memória resutando em melhor desempenho. As soluções de
storage tendem a ser cada vez mais inteligentes e integradas
ao software e, para isso, o conhecimento dos padrões de
acesso é fundamental.
Era dificil imaginar que aquelas estruturas coloridas e graciosas
pudessem explicar tantas coisas na natureza e que estivessem
presentes no nosso dia-a-dia em tecnologia. Do ponto de vista
filosófico, pode-se dizer que há sempre uma nova forma de
ver o mundo (a geometria Euclidiana não permitia essa visão),
ensinando que uma pequena parte pode representar o todo.
Para saber mais:
Fractals – Hunting the hidden dimension – DVD da PBS Nova
The Fractal Structure of Data Reference, Bruce McNutt
TCL-BR MP #123 - O homem que enxergou a forma das coisas (ibm.co/16sDsuQ)
76
Technology leadership council Brazil
social Business versus social Business model
Rodrigo Jorge Araujo
Você realmente sabe o significado do termo Social Business?
Como ele foi criado ou como é utilizado no mercado?
O termo Social Business foi criado há mais de 20 anos pelo
economista, ganhador do Prêmio Nobel da Paz, Prof. Muhammad
Yunus para definir um modelo de desenvolvimento sócio-
econômico que tem por base uma filosofia de investimentos
na capacidade das pessoas e empresas para se tornarem
auto-suficientes, inventivas e empreendedoras com o objetivo
do desenvolvimento mútuo.
Na definição de Yunus: “Um negócio social é uma empresa
sem perdas nem dividendos, projetada para atingir um objetivo
social dentro do mercado altamente regulado de hoje. É diferente
de uma organização sem fins lucrativos
porque o negócio deve buscar gerar um
lucro modesto, mas esse será usado
para expandir o alcance da empresa,
melhorar o produto ou serviço ou outras
formas que subsidiem a missão social”.
Alguns princípios foram criados para
definir o Social Business, segundo Yunus:
• O objetivo do negócio não é
a maximização do lucro, mas
sim superar a pobreza e outros
problemas que ameaçam as pes-
soas, tais como educação, saúde,
acesso a tecnologia e meio-ambiente.
• Sustentabilidade econômica, financeira e consciência
ambiental.
• Investidores recebem de volta apenas a quantia que
investiram; nenhum dividendo é dado além dessa quantia
e o lucro da empresa permanece nela para expansão e
melhorias.
• A mão-de-obra envolvida recebe remuneração de mercado,
com melhores condições de trabalho.
• Faça com alegria.
Já o Social Business Model (popularmente conhecido apenas
como Social Business) é um modelo recente aplicado a negócios
que adotaram ferramentas e práticas de redes sociais para
funções internas e externas dentro das suas organizações,
com o objetivo de gerar valor para todos os envolvidos, como
funcionários, clientes, parceiros e fornecedores.
Nesse novo modelo de negócios, as empresas precisam
cada vez mais ouvir, entender e responder às necessidades
de seus clientes, ao mesmo tempo em que os consumidores
querem cada vez mais saber sobre a reputação, idoneidade e
capacidade das empresas em atender aos seus requerimentos
e necessidades. Se essa interação não for eficiente, os riscos
de perda de mercado são altos e reais.
O e-Commerce mudou a forma como as pessoas e empresas
faziam negócios, o Social Business está mudando a forma como
as partes são reputadas, o que afeta diretamente na capacidade
de se manterem ativas no mercado. É uma mudança notável no
modo como empresas e indivíduos se relacionam.
Por esse motivo, cada vez mais as
empresas procuram soluções de
comunicação em alta velocidade,
redes sociais, armazenamento de
dados em nuvem e análise de grandes
volumes de dados que as auxiliem a
entender e se comunicar com seus
clientes e parceiros de negócio.
Nesse cenário a tecnologia tem um
papel fundamental em suportar e
gerenciar as novas interações sociais
e comerciais que deixarão de ser
opções e passarão a ser essenciais
para o sucesso dos negócios.
E, como no passado, novas áreas e oportunidades começam a
surgir, assim como a necessidade de profissionais especializados
nas mais diversas disciplinas. Você já se imaginou em uma
reunião estratégica com um Diretor de Marketing Online ou
envolvido em um projeto com o Gerente de Comunidades e
Redes Sociais?
Para saber mais:
Livro - Building Social Business: The New Kind of Capitalism that Serves Humanity’s Most Pressing Needs.[S.l.]:PublicAffairs, 2011. 256 p
http://bit.ly/1090gcP
http://bit.ly/16UcoFi
http://onforb.es/11Eem8Q
77
Technology leadership council Brazil Technology leadership council Brazil
méTodo cienTífico e TraBalho
Gregório Baggio Tramontina
Na maioria das vezes nós não nos damos conta, mas aplicamos
ao menos parte do método científico no nosso dia-a-dia e também
no nosso trabalho. Ele nos ajuda a resolver os problemas e
a fornecer argumenta-ções e informação justificada quando
necessário. Mas o que é o método científico e por que é importante
conhecê-lo?
O método científico é um conjunto de técnicas para a investigação
dos fenômenos que nos
cercam, para deles podermos
gerar novos conhecimentos
ou ajustar e corrigir o que
já sabemos. É um esforço
empírico com base em evi-
dências mensuráveis. E
embora as especificidades
variem de área para área
de conhecimento, pode-se
identificar dois elementos
comuns que conferem a sua
forma geral. Esses elementos
básicos são as hipóteses e os
testes dessas hipóteses.
Ao observar um fenômeno, um
cientista propõe uma ou mais
hipóteses para explicá-lo. As hipóteses não surgem do nada, mas
vêm daquilo que já se conhece sobre o fenômeno (ou fenômenos
parecidos) e seguem também uma análise de plausibilidade. Com
as hipóteses, o cientista então propõe testes para validá-las ou
refutá-las. Os testes devem ser passíveis de repetição por outros
cientistas, para verificação independente, e devem ser os mais
objetivos e controlados possíveis para evitar tendenciosidade nos
resultados. As hipóteses também geram previsões, por exemplo,
se elas forem verdadeiras, então espera-se observar certos valores,
comportamentos ou novos fatos sobre o fenômeno. Essas previsões,
por sua vez, podem ser confirmadas com mais testes e observações,
tornando a pesquisa ainda mais fundamentada.
Esse processo culmina quando fornece uma teoria. Na ciência,
o significado da palavra teoria é diferente do seu uso geral.
Coloquialmente, uma teoria é um “palpite” sobre a explicação
de algo, mas sem necessidade de maiores confirmações.
Cientificamente, uma teoria é muito mais, compondo-se de
um corpo de conhecimento estabelecido e bem suportado
pelas evidências disponíveis. Exemplos de teorias científicas
conhecidas são a da evolução das espécies de Charles Darwin
e a da relatividade de Albert Einstein, que até hoje fornecem
explicações verificáveis para uma vasta gama de fenômenos
naturais mesmo frente aos mais novos testes a que são submetidas.
Claro, nem toda pesquisa termina com uma teoria totalmente nova,
mas pode propor ajustes ao conhecimento existente, confirmar
aspectos novos de uma teoria ou mesmo mostrar que conceitos
importantes, à luz de novos dados, são na verdade incorretos
(vide o caso do éter, o meio
proposto para a propagação
da luz, refutado no famoso
experimento de Michelson-
Morley em 1887 – para uma
referência mais completa veja
o link abaixo).
Em nosso trabalho frequen-
temente nos deparamos com
situações que pedem uma
análise apurada para se-
rem resolvidas e são nes-
ses momentos em que
nossas habilidades, como o
pensamento crítico, são mais
requisitadas. A elaboração de
hipóteses e seus testes frente
ao problema que se apresenta formam o cerne de nosso processo
investigativo.
Além disso, é possível traçar uma relação direta entre o que
fazemos para resolver nossos desafios profissionais e os
elementos do método científico. Portanto, conhecendo mais a
fundo o método temos a oportunidade de melhorar os resultados
de nosso trabalho. E isso é refletido em todos os fatores que
deles derivam, como por exemplo a satisfação final do cliente.
Um exemplo dessa aplicação talvez seja em times de suporte à
produção, nos quais a análise e resolução rápidas e acertadas
de um problema podem fazer a diferença entre o sucesso ou
fracasso de um projeto.
O método científico tem a capacidade de melhorar nosso trabalho
e suas lições têm grande abrangência e utilização imediata.
Portanto vale a pena conhecê-lo e aplicá-lo.
Para saber mais:
What Was the Michelson-Morley Experiment?
Understanding and using The Scientific Method
Wikipedia - Epistemology
78
Technology leadership council Brazil
qual é o Tamanho do link?José Carlos Bellora Junior
Um todo projeto de infraestrutura de TI é muito comum a seguinte
pergunta: Qual é o tamanho do link? De fato, à medida que
novos sistemas, usuários e localidades precisam de acesso, a
capacidade dos enlaces de rede (também conhecidos como links
de dados) em fornecer um bom serviço é sempre questionada.
O planejamento e o gerenciamento de capacidade das redes de
comunicação podem ser facilitados caso o tráfego envolvido seja
previsível, ou possa ser medido de forma a aproximá-lo de um
modelo padrão. Determinar o comportamento do tráfego através
de medição é requisito fundamental para o dimensionamento e
o gerenciamento dos recursos em uma rede de dados.
A medição e a modelagem do
tráfego têm sido realizadas desde
que houve a necessidade de
computadores remotos trocarem
informações entre si. O tráfego de
dados possui períodos de “rajadas”
seguidas por longos períodos de
“silêncio”. Essa característica é
observada com medidas em
várias escalas de tempo (de
milissegundos a minutos), o que
caracteriza a autossimilaridade
do tráfego. A importância desse
comportamento está no fato de
ser difícil determinar uma escala natural de tempo para o
dimensionamento, pois o tráfego real não converge para um
valor médio em escalas maiores. Essa característica invariante
das rajadas resulta em baixa utilização dos recursos da rede
para qualquer tipo de serviço, ou seja, é necessário deixar
uma banda ociosa para acomodar o tráfego em eventuais
períodos de rajadas.
A ineficiência na utilização dos canais de comunicação faz com
que a tecnologia seja empregada com base no princípio do
compartilhamento dinâmico dos recursos da rede (roteadores,
switches, links). Os dados da comunicação entre os computadores
são multiplexados em um único canal, não de forma determinística
com reserva de tempo, mas de forma aleatória (multiplexação
estatística), de modo que o acesso à rede é imediato a qualquer
instante e com qualquer duração. Dessa forma, os computadores
podem comunicar-se através da troca de mensagens por links
compartilhados, sem a necessidade de circuitos dedicados.
Estudos demonstram que o tempo de resposta da rede é
diretamente influenciado pelo tamanho da mensagem trafegada,
sendo necessários tamanhos menores para otimizar o tempo
de transmissão. Esse conceito faz com que a comunicação
seja executada através da troca de pequenos segmentos
de informação conhecidos como pacotes, a essência das
redes atuais.
A obtenção dos dados necessários para uma caracterização
precisa do tráfego em redes de
alto desempenho é essencial
para o desenvolvimento de novas
tecnologias, planejamento de
capacidade, gerenciamento e
engenharia de tráfego de rede.
A maioria dessas atividades
necessita de um modelo para
fazer uma previsão de curto ou
longo prazo do tráfego.
Atualmente, os administradores de
rede se valem de medições com
base em SNMP (Simple Network
Management Protocol) existente
nos próprios componentes de rede (roteadores e switches)
ou em monitoração de pacotes, para o qual necessitam de
equi-pamentos específicos para captura e armazenamento de
dados (sniffers). Essas medições possibilitam obter informações
variadas sobre o tráfego com maior ou menor nível de detalhe,
dependendo do método empregado. É importante que o
projetista da rede tenha informações diversas que apontem
características predominantes do tráfego e padrões de uso
das aplicações que o ajudem a identificar possíveis problemas,
como congestionamentos.
Agora, sempre que você questionar qual deverá ser o tamanho do
link, pense logo que isso dependerá do padrão de tráfego de rede.
Para saber mais:
http://ccr.sigcomm.org/archive/1995/jan95/ccr-9501-leland.pdf
http://www.caida.org/research/traffic-analysis/
79
Technology leadership council Brazil Technology leadership council Brazil
Bancos de dados nosql Claudio Alves de Oliveira
Embora o conceito de NoSQL tenha surgido em 1998, ele ainda
não se tornou muito conhecido, mesmo entre os profissionais de
tecnologia. Para abordá-lo, precisamos considerar um assunto
mais amplo, o Big Data, que atualmente vem despertando a
atenção dos gestores de TI e empresários face à sua importância
para decisões operacionais e estratégicas, pois pode ajudá-
los em atividades como geração de negócios, novas linhas de
produtos e até na criação de necessidades de consumo.
As análises em grandes massas de dados podem trazer respostas
que antes não seriam possíveis de ser obtidas, por isso é grande
o potencial de mercado do Big Data, bem como o desejo das
empresas de adotá-lo.
Para tratar uma imensa quantidade de dados e aproveitá-los
da melhor maneira possível, estão sendo criadas tecnologias
que sustentam o Big Data como o NoSQL para infraestrutura
de banco de dados, Stream Computing como novo paradigma
e Hadoop e MapReduce voltado para análise de dados.
O NoSQL (Not only Structured Query Language) é um termo
genérico para uma classe definida de bancos de dados não-
relacionais, que têm uma propriedade chamada BASE (Basically
Available, Soft state, Eventual consistency), que distribui os dados
em diferentes repositórios tornado-os sempre disponíveis, não se
preocupa com a consistência de uma transação, delegando essa
função para a aplicação, porém sempre garante a consistência
dos dados em algum momento futuro à transação.
Esse conceito é exatamente o oposto das propriedades principais
dos tradicionais RDBMS (Relational Database Management
System), que são Atomicidade, Consistência, Isolamento e
Durabilidade, também conhecidas como ACID.
Ainda assim, o NoSQL não rompe com o “império” dos bancos
relacionais, mas complementa-os, já que ambas as tecnologias
podem coexistir.
Entre as vantagens dos bancos NoSQL em relação aos relacionais,
destaca-se a facilidade de escalabilidade vertical (aumento
de recursos dentro de um servidor) e horizontal (aumento no
número de servidores). Essa facilidade é um benefício direto
para os desenvolvedores, que passam a se preocupar mais
com suas aplicações e menos com manutenção. Esse é um dos
maiores motivos pelos quais os bancos NoSQL se espalharam
rapidamente entre as maiores aplicações web em funcionamento.
Por ter sido projetado para armazenamento de dados distribuídos
e em larga escala, grandes empresas de serviços de busca
e mídia social usufruem diretamente da tecnologia NoSQL e,
algumas pesquisas indicam que sua adoção pelo mercado
está em pleno crescimento.
É a necessidade do negócio que define qual abordagem deve
ser utilizada. Há que se utilizar critérios de comparação como a
escalabilidade do sistema, questões de consistência dos dados,
a existência ou não de linguagem de consulta e até a facilidade
de uso. Os bancos relacionais já têm mais tempo no mercado,
portanto são mais maduros e experimentados, porém mais
limitados. Já as implementações NoSQL, ainda que estejam
definindo um padrão próprio, são peças chave para o sucesso
das iniciativas em torno de Big Data.
Para saber mais:
http://www.google.com/trends/explore#q=NOSQL
http://www.ibm.com/developerworks/br/data/library/techarticle/dm-1205bigdatauniversity/
80
Technology leadership council Brazil
os desafios da inTerneT das coisas
Fábio Cossini
No seu artigo “A Internet das Coisas” (2011), José Carlos Duarte
Gonçalves nos apresenta a evolução da Internet e o conceito
daquilo que hoje é conhecido, dentre outros nomes, por Internet
da Coisas. De uma histórica interação homem-máquina através
de navegadores (browsers), essa nova Internet viabiliza a conexão
entre objetos, pessoas e o ambiente que os cerca, possibilitando
a troca e o processamento de informações para tomada de
ações, muitas vezes, sem intervenção humana. Porém, como
em todo início de uma nova era tecnológica, muitos são os
desafios para sua consolidação e uso com ampla aceitação.
A aplicação da Internet das Coisas já altera o dia a dia de milhares
de pessoas ao redor do mundo. O projeto SmartSantander,
na Espanha, tem transformado a cidade de Santander num
laboratório de pesquisas a céu aberto, trazendo benefícios
reais tanto para pesquisadores por meio de projetos-piloto,
quanto para seus cidadãos com a coleta e disponibilização de
informações sobre tráfego, vagas em estacionamentos, locais
para carga e descarga de suprimentos, temperatura, humidade
ou poluição sonora.
Na medicina já há pesquisa sobre a monitoração de pacientes
de Alzheimer ou diabetes através da Internet das Coisas. Com
sensores implantados diretamente em seus corpos, esses pacientes
poderão, num futuro próximo, enviar informações para aplicativos
que prescreverão, de forma mais eficiente e assertiva, drogas
que os atendam individualmente, de acordo com o diagnóstico
recebido. No caso do mal de Alzheimer, os esforços são para
que os pacientes também levem uma vida mais independente
em termos de mobilidade com monitoração geográfica.
Em relação a aplicações comerciais, o ramo de seguros será
um dos mais afetados, uma vez que a medição dos hábitos
individuais dos segurados poderá levar a uma precificação
personalizada do seguro. Além disso, as seguradoras poderão
mitigar o risco individual ao sugerir a cada segurado uma série
de informações que o protejam de eventuais sinistros, como
evitar regiões de maior probabilidade de roubo de automóveis
ou vigilância residencial à distância por meio de sensores de
movimento semi-invisíveis conectados à Internet.
No entanto, para que os benefícios da Internet das Coisas se
realizem plenamente, alguns obstáculos deverão ser eliminados.
O primeiro deles é a diversidade de padrões existentes para
comunicação entre objetos. O projeto CASAGRAS2, patrocinado
pela Comunidade Europeia, identificou 127 padrões publicados
e 48 em desenvolvimento em seu relatório final de 2012. Esses
padrões cobriam 18 áreas que se estendiam desde protocolos
de rádio-frequência (RFID) até padrões de comunicação voltados
para indústrias específicas, como a de saúde.
Com o crescimento exponencial de objetos que poderão se
comunicar entre si, a identificação unívoca de cada um torna-se
imperativo. O IPv6 nasce com esse direcionamento, uma vez que
o novo endereçamento de 128 bits permite a identificação de 79
octilhões de vezes mais endereços que o IPv4, ou seja, mais de
56 octilhões de endereços por habitante no planeta (6 bilhões).
Como resultado do número de objetos que poderão estar
conectados coletando e processando informações, surge a
necessidade de armazenamento. As informações coletadas
poderão ser muito voláteis, exigindo que os próprios dispositivos
as armazenem, ou com vida longa, de acordo, por exemplo,
com a necessidade da aplicação ou de legislações. Nesse
cenário a computação em nuvem e o Big Data terão lugar de
destaque para absorver a necessidade de processamento
ubíquo e geração de informações para aproveitamento humano.
Os próximos anos serão decisivos para uma convergência em
termos de pesquisa e conceituação da Internet das Coisas, para
que um mundo interconectado através de dispositivos permita
uma integração global, se não com o mesmo padrão, ao menos
com mecanismos que possibilitem a troca de informações com
custos que suportem um planeta mais inteligente.
Para saber mais:
http://www.ipv6.br
http://www.iot-i.eu/public/news/inspiring-the-internet-of-things-a-comic-book
81
Technology leadership council Brazil Technology leadership council Brazil
Traga seu disposiTivo móvel
Sergio Varga
Você já deve ter ouvido falar ou lido a respeito do termo BYOD
(Bring Your Own Device), não é? Se ainda não, isso está
relacionado à explosão da quantidade de dispositivos móveis
pessoais que os funcionários trazem para as empresas e a
necessidade delas lidarem com estes equipamentos dentro
do ambiente empresarial.
Entendem-se por dispositivos móveis os Smartphones, telefones
celulares, PDAs, Tablets, entre outros.
Além da liberação de uso dos dispositivos móveis, é necessário
criar ou alterar as aplicações existentes para suportar esse
novo tipo de dispositivo. A maioria das aplicações utilizadas
nas empresas foi desenvolvida para ser acessada por meio de
computadores pessoais ou terminais fixos. O desenvolvimento
de aplicações direcionadas para dispositivos móveis requer
um cuidado maior com a segurança,
o volume de dados trafegado, a
disponibilidade e compatibilidade
das aplicações.
Segundo Cezar Taurion, gerente de
novas tecnologias da IBM, esse é um
fenômeno que as empresas não têm
como ignorar, mas em vez disso, tratar
de frente e definir políticas de uso de
modo que não comprometam o seu
negócio. Em seu artigo publicado no imasters, entre os pontos
levantados por ele estão o custo, suporte técnico, segurança
e restrições legais.
Uma alternativa para minimizar esses pontos é o conceito do
Inverse-BYOD, que significa a empresa fornecer aos funcionários
os dispositivos móveis em vez de aceitar o uso de dispositivos
pessoais, embora não resolva todos os impactos causados
por eles. Para agravar ainda mais, temos outras duas novas
tecnologias como cloud computing e social business, que
também trazem desafios adicionais.
Considerando essas outras duas novas tecnologias, verificamos
que agora os desenvolvedores de aplicações também devem
se preocupar com a localização dos dados, itens de segurança
adicionais e compartilhamento de dados entre mídias sociais.
Além disso, devem elaborar novas aplicações que integrem
todas essas tecnologias, sejam elas aplicações internas ou
externas à empresa.
Do ponto de vista de gerenciamento desses dispositivos já
existem soluções que, embora ainda embrionárias, consideram
a integração das três tecnologias.
Verificamos alguns desafios que as empresas têm hoje em dia,
relacionados aos dispositivos móveis, que ainda não estão
totalmente solucionados. Muitos outros desafios ainda estão
por vir! Novos dispositivos móveis já estão sendo pesquisados.
Por exemplo, o projeto SixthSense, no qual dispositivos
ajustados ao corpo humano conseguem interagir com o meio-
ambiente. Existem muitas oportunidades de aplicações nas mais
diversas áreas do meio empresarial, como em e-commerce,
mídia eletrônica e qualquer outra que
possibilite interação entre as pessoas,
especialmente em social business.
Outro exemplo de dispositivo que as
empresas precisarão gerenciar e suportar
são os dispositivos que leem ondas
cerebrais e executam determinadas
tarefas cotidianas. Pode parecer um
pouco futurista, mas na área acadêmica,
especialmente na medicina, já existem
pesquisas nesse campo, tais como descrito no theguardian.
É uma questão de tempo elas chegarem nas empresas.
Como vimos, os dispositivos móveis vieram para ficar e cabe
às empresas, sejam elas consumidoras ou provedoras de
tecnologias, a responsabilidade de gerenciá-los e desenvolverem
novos produtos e modelos de negócio. É uma área muito dinâmica
visto que a explosão no uso de smartphones móveis, catalisada
pelo iphone, tem menos de cinco anos.
Quem poderá adivinhar o que acontecerá nos próximos cinco?
Para saber mais:
https://ibm.biz/BdxvQT
https://ibm.biz/BdxvQw
https://ibm.biz/BdxvQQ
https://ibm.biz/BdxvQ9
82
Technology leadership council Brazil
o céu é o limiTe para a auTomação inTeligenTe
Moacyr Mello
Aprendizagem de máquina é uma disciplina da Inteligência
Artificial que lida com a identificação de padrões que podem
ser tratados estatisticamente. Por outro lado, o Processamento
de Linguagem Natural, que está muito em voga após o sucesso
do Watson no Jeopardy!, é outra disciplina de Inteligência
Artificial que, auxiliado pela Linguística, aplica a identificação
de padrões na linguagem escrita de vários tipos de textos. Em
TI (Tecnologia da Informação), poderíamos usar esses recursos
para aplicá-los, por exemplo, numa especificação de software,
de procedimentos para manutenção e suporte de servidores de
datacenter ou numa proposta comercial. Enfim, em vários tipos
de documentos que possuam padrões e algumas regras de
formação. A associação desses elementos possibilita a proposta
de uma automação mais inteligente em TI.
Algoritmos de aprendizado de máquina
podem, por exemplo, inferir os resultados de
equações de sistemas complexos que são
difíceis de se formular matematicamente.
Como boa parte do que fazemos em TI
é escrever, definir e descrever, por que
não utilizar essas técnicas para introduzir
automação inteligente no nosso conjunto de
ferramentas de desenvolvimento? Tarefas
como estimativas e planejamento poderiam
em parte ser automatizadas. Ganharíamos
em padronização e rapidez. Isso parece impossível?
A ideia por trás da patente “Effort Estimation Using Text Analysis”
é justamente utilizar esses recursos para estimar o esforço de
implementação para especificações de software que usem
a técnica de casos de uso para captura de requisitos. É uma
abordagem estatística e tem como premissa que a automação,
a rapidez e a capacidade de exploração rápida de cenários, são
vantagens mais importantes que qualquer precisão milimétrica
da estimativa obtida por outros métodos.
Para implementar um software assim usamos uma rede neural
artificial (RNA), que é um modelo de processamento computacional
que se inspira no sistema nervoso dos seres vivos. Ele utiliza vários
neurônios artificiais associados em rede para imitar o modelo
biológico. A importante característica da RNA é a capacidade
de adquirir informação ou em outras palavras aprender.
A rede é “ensinada” a observar padrões no texto a partir de
exemplos conhecidos e associá-los ao custo de implementação.
Esse custo pode ser expresso em homens-hora ou por outra
pontuação genérica. Em seguida a rede pode inferir o valor
dos demais casos.
O problema maior está em caracterizar adequadamente os padrões
de complexidade que aparecem no texto. Apesar dessa ideia ser
generalizável para outras técnicas de especificação de requisitos,
em se tratando de casos de uso, a tarefa é mais fácil porque
essa técnica possui uma pequena gramática para sua escrita.
Então pontuamos cada elemento de gramática por meio
de palavras muito frequentes, e utilizamos os conceitos de
similaridade e afinidade de Karov [“Similarity-based Word Sense
Disambiguation”, Association for Computational Linguistics,
1998, vol. 24, No 1, 20 pgs.] e Hashimoto [Dynamics of Internal
and Global Structure through Linguistic Interactions, MABS ‘98,
LNAI 1534, pp. 124-139, 1998.].
Associado com essa pontuação utilizamos
pesos, fornecidos por um dicionário de
domínios, que foi construído durante o
processo de aprendizagem a partir de
um vocabulário inicial. A finalidade desse
dicionário é armazenar o conhecimento
estruturado, já adquirido anteriormente,
sobre o domínio e o tipo de sistema que
comumente o representa. A rede neural por
sua vez irá lidar com o conhecimento não
estruturado, conhecimento a ser adquirido
durante o treinamento e armazenado na
memória da rede.
Podemos dizer que, assim como uma pessoa que lê o texto e
avalia o esforço de acordo com sua própria experiência, formando
uma impressão de complexidade que o texto lhe causa, também
a RNA irá avaliar a pontuação por meio da memória, do volume,
da dificuldade de leitura, dos termos complexos ou usuais e
dos termos associados a um domínio de aplicação complexo.
Esses são exemplos das variáveis que caracterizam os atributos
memorizáveis da rede neural na patente mencionada.
Produtos para especificação de requisitos de software ou
de planejamento de projetos poderiam se beneficiar de uma
automação como essa, pois sempre são acompanhados de
algum tipo de estimativa de esforço.
Para saber mais:
TLC-BR Mini-Paper #091 (http://ibm.co/184qJ3S)
US-PTO Patent #US8311961 (http://1.usa.gov/12uVbOs)
http://en.wikipedia.org/wiki/Machine_learning
83
Technology leadership council Brazil Technology leadership council Brazil
inTeligência em segurança, uma nova arma conTra o cyBer crime
Alisson Lara Resende de Campos
Nos últimos anos temos nos deparado com outro tipo de
guerra, não mais com armas de fogo convencionais, químicas,
biológicas ou nucleares, e sim com armas virtuais, conhecida
como guerra cibernética.
Com a disseminação da Internet, conectando tudo e todos, temos
hoje uma situação sem precedentes no que tange ao acesso
a informações sensíveis de organizações ou ultrassecretas de
governos ao redor do mundo. O acesso a essas informações
deixou de ser simples jogos de hackers, que competiam entre
si para ver quem quebrava primeiro um determinado servidor
web, para se tornar uma atividade orquestrada por grandes
corporações ou governos, com o objetivo de espionagem
industrial ou armas de destruição em massa.
Nessa guerra cibernética são utilizadas novas técnicas de
exploração de sistemas, ou APT (Advanced Persistent Threat),
como também são conhecidas. Essas técnicas utilizam, de
forma conjunta e orquestrada, diferentes tipos de códigos com-
putacionais maliciosos, conhecidos como worms, vírus e rootktis
ou técnicas de exploração, como phishing, engenharia social
entre outras. Um dos casos mais famosos foi o worm “Stuxnet”,
que foi projetado para atacar as instalações industriais, como
as de enriquecimento de urânio do Irã, que teve centrífugas
comprometidas em 2010. E esse é apenas um incidente entre
outros existentes e outros que ainda surgirão.
Por essa razão os antivírus e firewalls tradicionais já não são
suficientes para proteger as organizações, resultando assim
no surgimento de um conjunto sofisticado de contramedidas,
necessárias ao combate desse tipo de ameaça.
Uma das principais armas, para combater essa ameaça pungente
é conhecida como “Security Intelligence”, que teve origem nas
soluções de SIEM (Security Information and Event Management),
que surgiram para realizar a coleta e correlação de eventos
em registros de equipamentos de tecnologia, mas precisaram
evoluir para atender a nova realidade em que vivemos.
As ferramentas de Security Intelligence são projetadas para
analisar, normalizar e correlacionar grandes volumes de dados
de aplicações, sistemas operacionais, ferramentas de segurança,
fluxo de redes, entre outras. Elas analisam o tráfego crítico
na infraestrutura e aprendem o comportamento esperado, de
maneira a detectar anomalias. Dessa forma as ameaças podem
ser descobertas mesmo antes de existirem vacinas ou correções
sistêmicas contra elas. Assim é possível identificar, de maneira
proativa, as ameaças e ações ilícitas no momento ou mesmo
antes da sua ocorrência.
Enquanto escrevo este artigo, uma nova tendência está surgindo:
a integração entre soluções de Big Data e de Security Intelligence.
A troca de dados entre essas soluções possibilitará a melhoria da
análise preditiva e a previsão dos riscos relacionados as empresas
e governos. Essa tarefa era quase impossível de ser realizada
até então, devido ao alto volume de dados não estruturados,
tais como emails, mensagens instantâneas e redes sociais.
A análise dos dados, inclusive a comportamental e sentimental,
juntamente com a capacidade de correlacionar um alto volume de
dados e a interoperabilidade das ferramentas de TI vêm sendo a
resposta dos good guys para combater as ameaças cibernéticas
emergentes, com suas novas técnicas de exploração de falhas,
espionagem, fraudes e roubos de informações sensíveis das
corporações e entidades governamentais. Os bad guys não
dormem no ponto, e você não pode dormir também!
Para saber mais:
http://en.wikipedia.org/wiki/Advanced_persistent_threat
http://www-03.ibm.com/security/solution/intelligence-big-data/
http://blog.q1labs.com/2011/07/28/defining-security-intelligence/
http://www.site.com/link3
84
Technology leadership council Brazil
Tecnologia Transformando cidades inTeligenTes
Dan Lopes Carvalho
Uma das questões que tem atraído grande atenção no âmbito
da gestão pública é prover serviços e infraestrutura de qualidade
para atender as necessidades do sistema urbano moderno, que
exige dinamismo e flexibilidade para uma população urbana,
que cresce significativamente e com o agravante da distribuição
desordenada no cenário brasileiro. Nesse contexto o conceito
de cidades inteligentes torna-se mais importante.
Em estudo recente, realizado por um grupo de universidades da
União Europeia formulou a primeira definição acadêmica para
conceituar cidades inteligentes: “uma cidade é dita inteligente quando
investimentos em capital humano e social em conjunção com uma
infraestrutura tradicional (transporte) e de
comunicação moderna (TIC – Tecnologia
da Informação e Comunicação) ali-
mentam um crescimento econômico
sustentável e uma elevada qualidade
de vida, com uma administração eficiente
dos recursos naturais, através de uma
governança colaborativa”. Dentro dessa
definição é possível interpretar que
cidade inteligente tem diversos fatores,
tais como desenvolvimento humano,
meio ambiente, transporte, segurança,
economia, redes sociais e outros.
Os governantes, em seu planejamento
estratégico para construir um sistema
urbano moderno e aderente às
constantes mudanças, deparam-se com uma infinidade de
adversidades, que vão desde a uma precária infraestrutura a
um imenso fluxo de informação que precisam ser administrados.
A tecnologia poderia então alavancar os fatores de sucesso
que transformam um sistema urbano em inteligente.
A transformação de uma cidade com base na tecnologia da
informação deve se dar por meio de três pilares: instrumentação,
interconexão e inteligência.
Instrumentação é a capacidade da cidade em capturar dados
em sua infraestrutura, ou seja, sensores que permitem observar e
absorver alterações de comportamento ou anomalia do ambiente,
tais como monitores de movimentação e aglomeração de pessoas
em pontos estratégicos.
Interconexão é a capacidade que o sistema de uma cidade tem
para transmitir e receber os diversos tipos de dados observados
para então interagir com os devidos atores permitindo eficiência
da governança do ecossistema. Um exemplo seria associar
eventos de trânsito que podem gerar riscos ou impactos em
outro sistema urbano, como a segurança pública.
Inteligência é a capacidade do sistema de interpretar e gerar
respostas rápidas e automatizadas para melhoria do serviço
público como um todo e de maneira integrada. O método mais
eficiente para medir um sistema inteligente de uma cidade é
a capacidade de interagir com o cidadão e gerar mudanças
rápidas e eficientes no sistema.
A visão de que o sistema urbano deve
ser integrado e deve ter capacidade
de fornecer sinergia entre os diversos
recursos provoca uma mudança no
atual modelo de gestão das cidades,
que deve apresentar uma estratégia
de compartilhamento entre os órgãos
do serviço público, tais como
segurança, transporte, mobilidade,
energia, água, entre outros, por
meio de um processo de informação
integrada, encaixando-se em um
ambiente intermunicípio, interestado,
nacional e até mesmo internacional.
As cidades iniciam, então, uma
longa e contínua caminhada para atender esse novo perfil
de gestão urbana, onde a governança deve ser compartilhada
com uma visão integrada, de modo a proporcionar respostas
efetivas e planejamento de políticas públicas mais céleres
e eficazes, que por sua vez proporcionam ao cidadão uma
melhor qualidade de vida.
Nesse contexto, a transformação tecnológica é o alicerce para
esse novo modelo de cidades inteligentes.
Para saber mais:
http://www.smartcitiesineurope.com
http://www.ibm.com/smarterplanet/br/cities
85
Technology leadership council Brazil Technology leadership council Brazil
crowdsourcing: o poder da mulTidão
Carlos Eduardo dos Santos Oliveira
Juntos somos mais fortes. Você certamente já ouviu isso muitas
vezes. Pois benvindo ao mundo do crowdsourcing. O termo foi
criado pelo jornalista Jeff Howe e publicado em seu artigo The
Rise of Crowdsourcing, na revista Wired, em junho de 2006.
O conceito de reunir pessoas com diferentes habilidades
em prol de um objetivo comum é muito mais antigo do que o
termo cunhado por Howe. Um bom exemplo e talvez o mais
antigo e famoso no Brasil é o do Movimento Software Livre, que
tem entre seus objetivos difundir a cultura open source. Esse
movimento nasceu em 1985, liderado por Richard Stallman,
com uma proposta muito simples: um ciclo onde cada um
soma o seu conhecimento ao do grupo,
desenvolvendo software com código
aberto. Na prática, se você utiliza
um software livre, pode melhorá-lo e
devolvê-lo ao grupo para que possa ser
utilizado por outros, reiniciando o ciclo.
Nos últimos anos o crowdsourcing
tem ganhado força principalmente
em ambientes de TI, quando pas-
sou do anonimato à fama devido ao
surgimento das derivações crowd-
funding e crowdtesting.
O conceito base do crowdfunding
é capitalizar projetos de qualquer
natureza por meio de apoio de caráter
financeiro e tem como principal ativista no Brasil o projeto Catarse,
uma plataforma de financiamento coletivo. Nele, qualquer pessoa
pode apoiar financeiramente qualquer um dos muitos projetos
cadastrados no site do Catarse.
Recentemente a comunidade Transparência Hacker angariou
fundos suficientes, com apoio recebido via Catarse, para o projeto
Ônibus Hacker, que visou a aquisição, reforma e modernização
de um ônibus, com o objetivo de difundir a “cultura hacker” em
todo o país.
Já o crowdtesting utiliza o conceito de multidão aplicado na área
de teste de qualquer natureza ou área específica do conhecimento.
Esse conceito é largamente utilizado por grandes empresas de
tecnologia como Microsoft e Google, por meio de seus programas
de testes de aplicativos em versões beta.
Em TI, por exemplo, isso é visto como um grande aliado, dada
a infinidade de cenários de teste que uma multidão pode
proporcionar e que não poderiam ser simulados dentro de
uma empresa. Entretanto, existem algumas ressalvas quanto
a segurança e privacidade de informações, principalmente
quando o objeto do teste trata de inovação ou define um
posicionamento estratégico.
Dados o poder, alcance, cenários e benefícios que o crowdtesting
proporciona, muitas empresas têm adotado esse conceito
e reduzido o tempo do ciclo de testes de seus produtos de
semanas para horas. Outra vantagem é a enorme diversidade
de sistemas operacionais, dispositivos
e configurações que esse modelo de
teste pode abranger, algo muito difícil
de se alcançar dentro de um ambiente
de TI corporativa.
Um exemplo de aplicação do conceito
de crowdtesting são as comunidades de
usuários Linux, onde cada usuário obtém
a sua cópia, instala e reporta bugs ao
fornecedor ou grupo de desenvolvedores
para posterior correção.
Nesse modelo, existem duas pos-
sibilidades de recompensa: financeira
ou reputação. Recomendo a leitura do
Mini Paper na pág. 71, de Wilson E. Cruz,
no qual é abordado o tema reputação de forma mais profunda.
Se o objetivo for uma recompensa financeira, já existem alguns
serviços de outsourcing de testes, como o Crowdtest, que contrata
mão-de-obra especializada para trabalhos regulares.
Nos últimos anos empresas globais aderiram ao crowdsourcing,
criando programas próprios, visando algum tipo de vantagem
competitiva ou inovação. Entre estas encontram-se gigantes
como Pepsico, P&G, Ford, Dell, Starbucks e Fiat entre outras.
Com o apoio dessas empresas o crowdsourcing vem ganhando
espaço na mídia e nas corporações, crescendo a passos largos.
Para saber mais:
http://crowdsourcing.typepad.com
Crowd Testing – Applicability and Benefits
http://blog.ideiasnamesa.com.br/tag/crowdsourcing/
86
Technology leadership council Brazil
Togaf – o que é e por quê?Roger Faleiro Torres
O TOGAF (The Open Group Architecture Framework) é um
modelo conceitual de arquitetura corporativa concebido em
1995 pelo The Open Group Architecture Forum, cujo objetivo é
fornecer uma abordagem global para o desenho, o planejamento,
a implementação e a governança de arquiteturas, estabelecendo
assim uma linguagem comum de comunicação entre os arquitetos.
Atualmente na versão 9.1, publicada em Dezembro de 2011, o
TOGAF se baseia em um processo iterativo, reutilizável, cíclico
e suportado pelas melhores práticas de modelagem envolvidas
nas atividades fim ou meio de uma organização, compreendendo
quatro tipos de arquitetura que são comumente aceitas como
subconjuntos de uma arquitetura corporativa, a saber: negócios,
dados, aplicações e tecnologia.
O conteúdo do TOGAF está estruturado em sete partes:
1. Introdução, que compreende conceitos básicos sobre arquitetura corporativa, o próprio TOGAF, terminologia e expressões adotadas;
2. O método para o desenvolvimento de arquiteturas (ADM – Architecture Development Method);
3. Técnicas e diretrizes associadas ao ADM;
4. Estruturas para conteúdos de arquitetura;
5. Ferramentas e o Enterprise Continuum;
6. Modelos de referência;
7. Framework das capacidades de arquitetura.
De forma resumida, o ADM é um método para o desenvolvimento
e manutenção de arquiteturas corporativas. O framework das
capacidades de arquitetura contempla os atores e papéis
que operarão o ADM, o qual é suportado por técnicas e
diretrizes, que produzirão o conteúdo a ser armazenado em
um repositório (estruturas para conteúdos de arquitetura),
sendo esse conteúdo classificado de acordo com o Enterprise
Continuum. O repositório é inicialmente populado com modelos
de referência, tais como o TRM (Technical Reference Model)
e o III-RM (Integrated Information Infrastructure Reference
Model), que fazem parte do TOGAF.
O ADM, ilustrado na figura, é considerado o principal componente
do TOGAF, compreendendo diversas fases que interagem entre
si, por meio dos domínios de arquitetura, para garantir que todos
os requisitos de negócio sejam devidamente atendidos. Uma
vantagem para a adoção do ADM é que ele pode ser adaptado
à terminologia adotada pela empresa.
Por que a arquitetura corporativa e o TOGAF devem ser
considerados assuntos estratégicos pelas empresas? A
arquitetura corporativa ajuda a identificar lacunas entre o estado
atual e o estado desejado pela empresa, fornecendo um plano
para que a organização alcance seus objetivos, descrevendo-a
em múltiplos níveis de amplitude e profundidade. O TOGAF, por
sua vez, acelera o ciclo de desenvolvimento dessa arquitetura,
fornecendo respostas para as perguntas o que, quem, quando,
como e por quê.
Para saber mais:
http://www.opengroup.org/togaf/
http://pt.wikipedia.org/wiki/TOGAF
Enterprise Continuum:
http://pubs.opengroup.org/architecture/togaf9-doc/arch/chap39.html
87
Technology leadership council Brazil Technology leadership council Brazil
revele o clienTe que esTá por Trás dos dados
Mônica Szwarcwald Tyszler
Diariamente somos bombardeados por informações que chegam
de todos os lados, por e-mail, redes sociais, imprensa e outdoors.
Segundo estudo divulgado pela IDC, são gerados cerca de 15
petabytes de dados todos os dias. A expectativa da consultoria é
que esse fluxo chegará a 8 zettabytes até 2015. Essa quantidade
gigante de informações torna difícil separar o que é relevante.
Esse também é um problema para as empresas que tentam
conhecer o perfil dos seus clientes, visando oferecer produtos e
serviços personalizados de acordo com as suas necessidades.
Um primeiro passo rumo à modelagem do comportamento dos
consumidores é compreender o nível das informações existentes
na companhia e utilizá-las da maneira correta. É fundamental
saber como integrar o negócio às características individuais
dos clientes. Os dados brutos levam a uma visão limitada de
quem é e o que quer o seu consumidor.
Para um resultado efetivo, as empresas devem procurar consolidar
em um único ponto a visão 360 graus. Visando entender melhor
as vontades dos clientes surgiram ferramentas para coleta,
gerenciamento e análise de dados. O termo customer analytics,
muito em voga pelas grandes companhias, é a síntese do esforço
em conhecer o comportamento do consumidor e saber criar
modelos para estreitar esse relacionamento.
Informações de clientes em sistemas como ERP, CRM, cadastros
e dados obtidos de fontes externas como agências de marketing
ou empresas de pesquisa de mercado, devem ser consolidados
e analisados a fim de traduzir em números o seu comportamento.
O processo de obtenção desses dados é gradual e evolutivo,
e leva a um aprendizado constante de quais informações são
valiosas e quais os próximos caminhos a seguir.
Uma considerável parte desse universo de dados precisa ser
transformada antes de ser usada para uma análise efetiva. A
ciência dessa análise está na aplicação de conceitos estatísticos,
matemáticos ou mesmo econométricos, como inferências,
correlações, regressões lineares e logísticas, para revelação
de informações antes escondidas. O estudo do perfil de um
consumidor é possível graças às aplicações de métodos científicos
que viabilizam a segmentação de clientes, a modelagem de
ofertas e o desenho de programas de fidelidade personalizados.
A partir de melhores previsões e decisões mais inteligentes, os
varejistas, os bancos, as corretoras de seguros, por exemplos,
podem gerar maiores volumes de vendas criando, em tempo
real, promoções e ofertas.
Acompanhando essa tendência, as empresas provedoras de
tecnologia já estão prontas para prestar esses serviços para todos
os setores da economia, oferecendo não apenas os produtos,
mas também especialistas capazes de aplicar a análise de
dados nas diversas indústrias, nos mais variados cenários.
As tecnologias de análise de dados permitem identificar o
cliente quando entrar em uma loja física ou visitar uma loja virtual,
associando-o ao seu histórico de consumo, hábitos, preferências
e situação socioeconômica. Assim, será possível criar ofertas,
propostas de produtos e serviços aderentes às necessidades
dos consumidores, proporcionando uma experiência de interação
única e personalizada. O customer analytics é o caminho para
as companhias explorarem uma nova fronteira competitiva.
Para saber mais:
http://www.wharton.upenn.edu/wcai/
http://www.customeranalyticsevent.com/
http://www-01.ibm.com/software/analytics/rte/an/customer-analytics/
88
Technology leadership council Brazil
singularidade: você esTá pronTo para viver para sempre?Cesar Nascimento
Pare para imaginar como seria sua vida se a humanidade fosse
uma raça imortal. Ou melhor, pense nos impactos caso se torne
imortal. As consequências em nossos sistemas políticos e
econômicos seriam, sem dúvida, grandes e profundas. Deixando
os aspectos humanos de lado, existem, de fato, possibilidades
reais apoiadas por grandes cientistas de que a humanidade
alcance a imortalidade em breve.
Segundo Raymond Kurzweil[1], pesquisador da área de Inteligência
Artificial, é possível que a imortalidade aconteça ainda nesse
século[2]. A imortalidade da
raça humana faz parte de
várias previsões que Kurzweil
fez e chamou de Singularidade
– uma transformação profunda
nas capacidades humanas –
que segundo o pesquisador
deve acontecer em 2045[3].
As previsões de Kurzweil
têm como base modelos
matemáticos que propõem
uma evolução científica
e tecnológica em escala
exponencial. Para se ter
uma ideia, seus modelos
mostram que as duas últimas
décadas do século XX foram
equivalentes a todo progresso
dos oitenta anos anteriores. Nós vamos fazer mais vinte anos
de progresso em apenas 14 anos (em 2014) e depois fazer o
mesmo novamente em apenas sete anos. Dentro da escala
exponencial proposta por Kurzweil, os 14 primeiros anos do
século XXI seriam superior ao progresso cientifico alcançado
durante todo o século anterior. Para expressar isso de outra
forma, não teremos cem anos de avanço tecnológico no século
XXI e sim um avanço cerca de 1.000 vezes maior do que o que
foi alcançado no século XX.[3]
Ainda segundo Kurzweil, a imortalidade poderá ser atingida por
meio de dois fatores combinados: GNR (Genetics, Nanotechnology,
Robotics) e progresso computacional exponencial previsto pela
Lei de Moore[4].
A GNR vai contribuir para melhorar a qualidade de vida dos seres
humanos, aumentando a expectativa de vida em muitos anos.
A combinação de robótica e nanotecnologia vai nos ajudar na
criação de tratamentos efetivos, direcionados e menos invasivos
pois será possível programar nanobots para a erradicação de
qualquer moléstia. Imagine alguns exemplos: nanobots na sua
corrente sanguínea que removem o excedente de gordura ou
açúcar, que podem fazer correções na córnea, e que eliminam
vírus, bactérias ou parasitas.
A robótica e a evolução exponencial da computação fornecem
a segunda parte da equação da imortalidade.
São necessários cerca de 10 quatrilhões (1016) de cálculos
por segundo (cps) para fornecer um equivalente funcional
ao cérebro humano. Estima-
se que, em 2020, essa
capacidade computacional
custará cerca de mil dólares
e, que em 2030, esses mesmos
mil dólares em poder de
processamento serão cerca
de mil vezes mais poderosos
do que um cérebro humano
(figura). Hoje, existem modelos
matemáticos e simulações
de uma dúzia de regiões do
cérebro. Segundo pesquisas
atuais, já é possível simular
de cerca de 10.000 neurônios
corticais[5], incluindo dezenas
de milhões de conexões.
Isso significa que se tivermos os meios de hardware, software
e controle sobre nossos corpos, poderemos literalmente fazer
uma réplica do nosso cérebro.
Dessa maneira, tudo se resume a uma frase usada pelo próprio
Kurzweil: “viva o bastante para viver para sempre”[6]. Viva o
suficiente para tirar proveito das melhorias que a genética e
nanotecnologia trarão, assim você poderá viver ainda mais,
quem sabe até o ponto de inflexão a partir do qual poderá viver
indefinidamente.
Para saber mais:[1] https://ibm.biz/Bdx3Ar
[2] https://ibm.biz/Bdx3AY
[3] https://ibm.biz/Bdx3AZ
[4] https://ibm.biz/Bdx3Aw
[5] https://ibm.biz/Bdx3uT
[6] https://ibm.biz/Bdx3ub
89
Technology leadership council Brazil Technology leadership council Brazil
agora eu posso TwiTTar
Sergio Varga
A velocidade com
que novos serviços e
produtos aparecem na
Internet e se disseminam
é impressionante. É o caso
do facebook, do twitter e
do youtube, ferramentas
inicialmente concebidas
para o compartilhamento
de informação entre pes-
soas, que se tornaram
padrões de mídias sociais.
Por outro lado, muitas empresas proibiam o acesso a essas
ferramentas no meio empresarial, sob o pretexto de não estarem
relacionadas com as atividades de negócio, sendo então
consideradas uma distração para os funcionários.
O que era considerado proibido, vem sendo encorajado pelas
próprias empresas. Mas, o que levou a essa mudança de posição?
Vários motivos podem ser citados, dentre os quais, relacionamento,
propaganda, formação de opinião, a frenética necessidade por
informação e a rapidez que ela atinge o consumidor.
As empresas viram nessas mídias sociais novas oportunidades de
chegar aos seus consumidores, canais inovadores de marketing.
Há muito tempo tem se observado que a propaganda boca-a-boca
é uma das melhores formas de conseguir novos consumidores
e pesquisas recentes comprovam isso. As mídias sociais
simplesmente tornaram possível aumentar exponencialmente
esse tipo de propaganda. Os relacionamentos sociais também
já não têm mais fronteiras. Ao entrar para uma comunidade ou
associar-se a um amigo, as opiniões divulgadas na rede agora
são “escutadas” instantaneamente e com maior abrangência,
pois os amigos do seu amigo também veem sua opinião.
A mudança de posição das empresas está também relacionada
à percepção dos formadores de opinião, pessoas de referência e
celebridades nas redes sociais. O poder ou atração que exercem
sobre as outras pessoas é muito grande, podendo se tornar
grandes promotores ou “detonadores” de produtos ou serviços.
Além disso temos a busca incessante pela informação. Somos
movidos por conhecimento e curiosidade. Seja a informação
mais simples ou banal até a mais importante ou prioritária. E
essa busca também tem sido atendida com as mídias sociais.
Outro ponto é a velocidade que a informação chega ao consumidor.
No momento em que lê esse artigo, você pode receber no twitter
uma promoção relâmpago de TV que está sendo realizada por
uma grande rede de eletrodomésticos com descontos especiais.
Isso não era possível há poucos anos atrás e as empresas agora
estão cada vez mais utilizando o social business.
A utilização de mídias sociais pelas empresas para divulgação de
produtos e pelos funcionários para disseminação de experiências,
troca de opiniões e informações, tem sido objeto de preocupação
das empresas. Essa mesma preocupação ocorreu no passado
com o advento do e-mail na década de 80.
O ponto mais importante é definir os critérios de como se portar
para o mundo externo, ou seja, o que o funcionário postar nas
mídias sociais tem que seguir algumas diretrizes do empregador,
pois ele o está representando naquele momento. Outro ponto
é a criação de iniciativas como o uso de blogs para comentar
produtos, tweets sobre eventos, facebooks empresariais e
vídeos promocionais no youtube. Essas iniciativas permitem
que os funcionários participem e divulguem tais conteúdos
nas mídias sociais.
As empresas também solicitam a seus funcionários que auxiliem
na resposta a comentários ou questões de consumidores
relacionadas com produtos ou serviços. As mídias sociais, que
estão sendo constantemente monitoradas, são canais importantes
onde o consumidor consegue chegar às empresas.
A maior dificuldade para o funcionário é conciliar a participação
nas mídias sociais de caráter pessoal com o uso no âmbito
empresarial, ou seja, o funcionário pode usar o twitter e o
facebook para falar de assuntos da empresa e de assuntos
pessoais? Ou deve usar o facebook para uso pessoal e o twitter
para uso profissional? Não existe uma regra e fica a cargo do
funcionário decidir sobre isso.
Bom, uma coisa é certa, agora eu posso twittar sem que meu
chefe me olhe atravessado, não é? Vamos twittar então?
Para saber mais:
http://bit.ly/15wuLf7
http://bit.ly/17t1jLS
90
Technology leadership council Brazil
o novo consumidor
Ricardo Kubo
Tenho observado meus filhos e eles já não assistem televisão da
mesma forma que eu fazia. Hoje, eles veem o que querem, na hora
e quantas vezes quiserem, na Internet. Se eu já demandava um
atendimento personalizado, que tipo de consumidor serão eles?
Esse novo cliente tem a expectativa de que o varejista o atenda
de forma única e sem compromisso de fidelidade. Recentemente,
vivi uma experiência memorável no interior de São Paulo, no
qual o processo de compra funcionava com a antiga caderneta.
Recebi um atendimento personalizado, desde o cumprimento
caloroso até o pagamento “fiado” sem nenhuma burocracia. No
entanto, ao voltar para a “cidade grande”, passo a valorizar a
conveniência e outros atributos importantes como a velocidade de
compra e a entrega, fazendo com que eu prefira a compra online.
Em uma experiência anterior, trabalhando em uma start-up de
negócios na Internet, foi possível operarmos “no azul”, mesmo
com o estouro da bolha da NASDAQ em 2001. A sustentação
se deu através de uma empresa tradicional que ali ingressava
no mundo virtual, formando o que, no jargão da época, era
conhecido como Bricks and Clicks.
Atualmente a competitividade no comércio eletrônico corrói
valores como serviços e ambientação, oferecidos nas lojas
tradicionais. A recuperação desses valores, aproveitando as
sinergias com o mundo digital, é um dos maiores desafios
enfrentados pelos grandes varejistas.
Em 2011, a TESCO, terceira maior varejista do mundo, alavancou
as compras online a partir da utilização de gôndolas virtuais nos
metrôs da Coréia. A Anthon Berg foi bem sucedida ao inaugurar
suas lojas explorando o engajamento de seus consumidores
via mídia social. Essa sinergia do mundo real e virtual pode
ser uma alternativa a se explorar, para compensar as baixas
margens de lucro do comércio eletrônico. E isso também vale
para a indústria, que já começa a criar iniciativas conjuntas e
interdependentes no mundo real e virtual.
Muitas marcas investem em lojas-conceito para gerar uma
experiência de compra personalizada ao explorar visão, olfato
e até emoções, com o propósito de fidelizar o consumidor,
levando também em conta os fatores relacionados à diferença
de gerações e suas respectivas propensões de compra.
Com o aumento da escala, o atendimento personalizado acaba
por recorrer a soluções de tecnologia para melhorar a experiência
do consumidor. Essas soluções podem ajudar a identificar,
interagir e personalizar o atendimento aos novos consumidores.
Para munir essas soluções de informações relevantes, tecnologias
como reconhecimento biométrico, plataformas de comércio
eletrônico, campanhas digitais (aproveitando ou não as mídias
sociais) e sistemas de retaguarda, são todos grandes coletores
de dados que podem ser analisados para se entender o
comportamento do indivíduo em relação aos diversos pontos
de contato que uma marca disponibiliza.
Ainda nesse contexto observamos a entrada de uma nova variável,
a computação cognitiva, provável diferencial na capacidade de
“digestão” dessa explosão de dados. Finalmente, há também o
impacto da mobilidade, com dispositivos como smartphones
servindo como canal de interação e deixando rastros digitais
valiosíssimos, como a localização em tempo real. Esse canal dá
ainda mais poder ao consumidor, que pode visitar fisicamente
uma loja ao mesmo tempo que compara preços de outras lojas
para negociar e até efetivar uma compra em um concorrente a
partir de seu smartphone. Isso gera impactos diretos no modelo
de negócios, precificação, promoções e níveis de serviços, que
muitas vezes apresentam diferenças entre canais digitais, lojas
físicas ou call-centers.
De fato, o consumidor está onipresente e as futuras gerações
serão cada vez mais instrumentadas, informadas e imediatistas.
Se notarmos como nossos pais faziam compras e como nós
fazemos hoje, notamos quantos hábitos novos já adotamos
em tão pouco tempo. Quem está preparado para atender esse
novo consumidor?
Para saber mais:
http://en.wikipedia.org/wiki/Bricks_and_clicks
https://www.youtube.com/watch?v=nJVoYsBym88
https://www.youtube.com/watch?v=_cNfX3tJonw
91
Technology leadership council Brazil Technology leadership council Brazil
Transformando riscos em oporTunidades de negócio
Alfredo C. Saad
O conceito de risco surgiu na transição da
Idade Média para a Moderna, ao longo
dos séculos XVI e XVII. Até então, apesar
do notável avanço já alcançado em outras
áreas do conhecimento humano, ninguém
ousava desafiar o desígnio dos deuses, que
pareciam determinar os eventos futuros. Esse
fato fazia com que os eventos observados
fossem simplesmente associados à boa ou
má sorte. Uma arraigada visão fatalista impedia que sequer
fosse imaginada a possibilidade de ações que aumentassem a
probabilidade de ocorrência de eventos favoráveis ou diminuíssem
a probabilidade de ocorrência de eventos desfavoráveis.
Os ares inovadores trazidos pelo Renascimento fizeram com
que os pensadores da época desafiassem esse temor do futuro,
levando-os a desenvolver e aperfeiçoar métodos quantitativos
que antecipavam variados cenários futuros em contraposição
ao cenário único imposto pelo destino. Um dos primeiros marcos
foi a solução, por Pascal e Fermat, em 1654, acerca do enigma
da divisão de apostas de um jogo de azar. Surgiram então os
primeiros fundamentos da Teoria das Probabilidades, básicos
para o conceito de risco.
A partir daí, a recém criada perspectiva fez surgir, ao longo do
século XVIII, inúmeras aplicações em distintas áreas, tais como
cálculos de expectativa de vida das populações e até mesmo o
aperfeiçoamento do cálculo de seguros para as viagens marítimas.
A evolução permanente dos métodos quantitativos trouxe, já na
Idade Contemporânea, essas aplicações ao mundo corporativo.
Textos escritos por Knight em 1921 (Risco, Incerteza e Lucro) e
Kolmogorov em 1933 (Fundamentos da Teoria das Probabilidades),
assim como a Teoria dos Jogos, elaborada por von Neumann
em 1926 são bases para a evolução contemporânea do tema.
Dentre as áreas abordadas desde então, podem ser citadas as
decisões relativas à fusão e aquisição de empresas, as decisões
de investimento e os estudos macro-econômicos.
A evolução da disciplina de gestão de riscos permitiu identificar
quatro diferentes formas de reagir a um risco, a saber: aceitar,
transferir, mitigar ou evitar o risco. Há, entretanto, uma quinta
forma, inovadora, de reação: a de transformar o risco em uma
oportunidade de negócio.
Um exemplo de aplicação desse conceito
pode ser visto em contratos de terceirização
de serviços de TI. Tipicamente, o cliente
contrata o provedor de serviços para operar
o ambiente de TI de sua organização com
níveis de qualidade pré-definidos em
contrato, os quais garantem que eventuais
falhas não impactarão significativamente
os negócios do cliente.
Nesse cenário, é parte relevante da atividade do provedor de
serviços o continuado esforço para identificação e tratamento
das vulnerabilidades no ambiente de TI operado e que possam
vir a afetar as atividades do cliente.
Sabe-se que cultivar no cliente a percepção de que o provedor
atua proativamente na identificação dos potenciais fatores de
riscos aos seus negócios aumenta significativamente a sua
predisposição em contratar novos serviços.
Mais ainda, o tratamento indicado para vulnerabilidades
identificadas, muitas vezes, requer a tomada de ações que se
encontram fora do escopo de serviços contratado.
Esse cenário caracteriza a quinta forma para reagir a um risco
identificado: a geração de uma nova oportunidade de negócio,
que pode ser viabilizada pela ampliação do escopo dos serviços
contratados, com a finalidade de eliminar ou ao menos mitigar
fatores que colocam os negócios do cliente em risco.
O exercício permanente dessa conduta proativa do provedor
consolida, na percepção do cliente, a ideia de que o provedor
é capaz de gerar um valor agregado relevante, que é o de
assegurar que seus próprios negócios estão protegidos por uma
efetiva gestão dos riscos de TI. Tal valor agregado extrapola
largamente os limites comerciais estritos do contrato firmado,
criando vínculos de confiança mútua valiosos para ambas as
partes e que poderão gerar ações de parceria em áreas não
exploradas nem vislumbradas anteriormente.
Para saber mais:
Six keys to effective reputational and IT Risk Management
The convergence of reputational risk and IT outsourcing
Bernstein, Peter L. – Against the Gods: The Remarkable Story of Risk, John Wiley & Sons Inc, 1996
92
Technology leadership council Brazil
qos em redes de acesso em Banda larga
Mariana Piquet Dias
A demanda por banda larga tem aumentado significativamente
devido a diversas aplicações que são transportadas sobre a
Internet, tais como televisão (IPTV), voz (VoIP), vídeo sob demanda
(VoD), vídeoconferência e jogos interativos. Nessas aplicações
milhares de usuários competem pelos mesmos recursos da rede
de acesso de banda larga, o que pode degradar o desempenho
dos serviços contratados. Quem nunca teve a experiência de
um vídeo interrompido por lentidão na rede ou ruídos excessivos
ao fazer chamadas de VoIP?
Por essa razão os provedores de banda larga precisam garantir
níveis adequados de qualidade de serviço (QoS) na rede para
atender aos requisitos dos usuários e suas aplicações. Uma
política adequada de QoS permitirá classificar e priorizar os
tráfegos de acordo com seus requisitos.
Esse cenário traz um grande desafio para as operadoras
de telecomunicações, pois a política de QoS precisa ser
implantada de ponta a ponta sobre redes complexas que
usam várias tecnologias de acesso em banda larga como
ADSL (uso da rede de telefonia), DOCSIS (uso da TV a cabo)
e GPON (rede de fibra óptica), além das tecnologias móveis
Wi-Fi e 3G/4G.
Para criar essa política é necessário um bom entendimento
sobre os principais parâmetros de QoS: disponibilidade da
rede, largura de banda, latência e jitter.
A disponibilidade tem sua importância porque interrupções
de rede, mesmo de curta duração, podem comprometer o
desempenho das aplicações.
Largura de banda é outro parâmetro importante que afeta
o planejamento de QoS. Muitas redes operam sem controle
da largura de banda, permitindo que certas aplicações
superutilizem o meio e comprometam o fornecimento de banda
para outros serviços.
A latência, ou atraso da rede, é o tempo que um pacote de dados
demora para transitar entre a origem e o destino. O jitter é a
variação desse atraso. Quando a latência ou o jitter são muito
grandes, diversos danos podem ser causados a aplicações de
tempo real como voz e vídeo.
Na elaboração de uma política de QoS, esses parâmetros devem
ser planejados de ponta a ponta na rede analisando todo o
caminho desde o usuário até o provedor do serviço. Também
é necessário conhecer bem os requisitos de cada aplicação e
dos usuários. No entanto, o dinamismo do mercado mostra que
esses requisitos têm se transformado rapidamente com o tempo.
Portanto é necessário implementar soluções de monitoração e
análise de rede para identificar mudanças no comportamento
do tráfego de maneira a ajustar o planejamento de QoS.
Algumas características e funções dessas soluções são
importantes na gestão da experiência do usuário, como gráficos
de tráfego em tempo real, suporte para modelagem de tráfego
ou limitação de velocidade, bloqueio de sites e filtragem de
conteúdo. Essas soluções permitem visualizar e analisar o
tráfego, suportando a operadora na criação de políticas de
QoS mais eficazes.
Com esse ciclo de monitoração e planejamento é possível ter
um plano efetivo de QoS que habilita as redes de banda larga
a suportar os serviços atuais e futuros. Isso traz uma grande
oportunidade para soluções que incluem serviços de monitoração
e ferramentas analíticas que levarão as operadoras a investir
em redes mais eficientes e na oferta de acesso de banda larga
de melhor qualidade.
Para saber mais:
http://tinyurl.com/lmmfy6d
http://en.wikipedia.org/wiki/Quality_of_service
http://en.wikipedia.org/wiki/Network_traffic_measurement
https://ibm.biz/BdDGFH
93
Technology leadership council Brazil Technology leadership council Brazil
as máquinas senTem?Samir Nassif Palma
Alguns filmes futuristas ou de ficção científica nos mostram
máquinas que aprendem e assumem o comando do mundo.
Ou ainda, robôs que tem sentimentos, se consideram humanos
e desejam assim se tornar um de nós. Afinal, será possível
que máquinas tenham sentimentos? Poderiam tomar decisões?
Nossos avós com certeza responderiam que não, mas a realidade
nos apresenta algo diferente.
De forma similar às pessoas, as máquinas possuem sistemas
internos funcionais responsáveis pela execução de suas ações
e tarefas. No entanto, esses sistemas são criados, codificados,
testados e implementados por pessoas. As funções dos sistemas,
definidas de acordo com seu propósito, visam atender a um
objetivo final para o qual a máquina foi projetada.
Já vimos algumas máquinas alcançarem objetivos antes
impensáveis, como derrotar um campeão de xadrez, ou mesmo
vencer um concurso de perguntas e respostas. Além disso,
existem aquelas que projetam a previsão do tempo, prospectam
a localização de óleo no fundo do mar ou traçam a melhor rota
de percurso entre dois endereços. São máquinas com sistemas
internos especializados, que analisam dados e tomam decisões.
Portanto, já temos resposta de uma das perguntas colocadas
no início desse texto. E quanto aos sentimentos?
O verbo sentir nos remete à experiência, à percepção, à emoção
e ao juízo de valor. Sentir algo bom ou ruim pode ser traduzido
em positivo ou negativo. Há ainda a indiferença, ou seja, o valor
neutro do sentimento. Essa também é uma forma usada para
estruturar a abordagem de sentimentos em máquinas. Dado
um cenário e condições a que seu sistema é submetido, há o
processamento para apresentação de uma resposta: positiva,
negativa ou neutra.
Mas qual seria o objetivo de termos máquinas e sistemas que lidam
com sentimentos? Uma resposta seria a tentativa de modelar o
comportamento humano de maneira a prever sua próxima ação.
Empresas já mostram interesse em análise de sentimentos
buscando tomar ações mais assertivas para aumentar suas
vendas ou evitar a perda de clientes. A pesquisa gira em torno de
reputação e comportamento de clientes durante o lançamento
ou consumo de produtos e serviços. Por exemplo, como avaliar
a percepção ou sentimento do público-alvo na veiculação de
campanhas de marketing e qual o retorno gerado?
Uma alternativa que vem sendo utilizada atualmente é a
interpretação de comentários em redes sociais, ou em websites,
com o uso de técnicas de mineração de textos (ou text mining).
Entretanto, a análise de sentimentos em textos é uma tarefa
extremamente desafiadora. Expressões com gírias, vícios
de linguagem, objetos ocultos, abreviações e o contexto são
exemplos de dificuldades. A boa notícia é que muita coisa
já é possível. O processo cognitivo é similar ao utilizado na
educação de crianças. Requer muita orientação, método
(estrutura e processo) e prática (treinamento e experiência).
Dessa forma a máquina aprende a coletar, interpretar e até
sentir o que está oculto.
Por ser uma tarefa de tradução da linguagem humana para a
de máquina, a análise léxica para julgamento de sentimento
é totalmente orientada ao contexto e ao objeto que se deseja
avaliar. A técnica de análise de um produto, por exemplo,
é diferente da análise de uma pessoa (um artista ou um
político em campanha eleitoral), assim como analisar times
esportivos é diferente de analisar a imagem ou a reputação
de organizações.
A interpretação de textos é apenas um caso de uso para a
análise de sentimentos. Há outras técnicas e modelos, como
a combinação de eventos, que também são utilizados.
Enfim, voltando a pergunta-título, podemos sim afirmar que as
máquinas sentem. Basta ensinar e treinar seus sistemas internos
funcionais. Mas pode ficar tranquilo, pois ainda não há nada
que possa nos levar a um fim catastrófico como os de alguns
filmes de ficção científica.
Para saber mais:
IBM Analytics Conversations
Techniques and Applications for Sentiment Analysis - ACM
Creating a Sentiment Analysis Model – Google Developers
Introduction to Sentiment Analysis - LCT
94
Technology leadership council Brazil
alinhando Ta e TiMarcelo de França Costa
Automação pode ser entendida como o uso de máquinas e
sistemas de controle para aperfeiçoar a produção de bens ou
a prestação de serviços. Esse conjunto de hardware e software,
chamado Tecnologia de Automação (TA), é aplicado com objetivos
que incluem aumentar a produtividade e a qualidade, reduzir o
número de falhas e a emissão de resíduos, obter economia de
escala e melhorar as condições de segurança. A TA é o passo
além da mecanização, que diminui a necessidade de intervenção
humana nos processos.
Um dos exemplos de emprego da
TA está nas chamadas Smart Grids,
redes de energia inteligentes que
buscam melhorar a distribuição de
energia por meio de medidores
de qualidade e de consumo em
tempo real, os chamados smart
meters. Assim, a residência do
cliente é capaz de “conversar”
com a companhia distribuidora,
avisando por exemplo sobre um
problema de energia antes mesmo
do cliente pegar o telefone para reclamar.
Observando a Smart Grid, verificamos que se trata de uma
solução que também faz uso da Tecnologia da Informação (TI),
bem como das telecomunicações, para obter informações e
agir de forma automatizada, de acordo com o comportamento
de fornecedores e consumidores.
Ao analisar a TA no mundo corporativo, num contexto mais
estratégico, dada sua proximidade tecnológica com a TI, seria
natural pensarmos em ambas quanto à definição de processos
e objetivos da governança de TI. Essa subárea da governança
corporativa é responsável pela coordenação dos departamentos
de tecnologia e pelo alinhamento de seus processos, de forma a
garantir que suportem a estratégia corporativa e contribuam para
que a organização atinja seus objetivos de negócio. Espera-se,
com a governança de TI, alcançar benefícios como o alinhamento
às boas práticas e padrões internacionais, facilitar auditorias,
simplificar o gerenciamento e obter transparência na atuação
das áreas, além de racionalizar investimentos ao permitir uma
visão mais clara do retorno esperado.
A proposta é que a governança de TI seja estendida à área de
TA, de forma que engenheiros de automação, por exemplo, não
executem seu trabalho alheios ao contexto global da empresa,
mas sim dentro de uma filosofia da área de TA, alinhada ao
planejamento corporativo. Uma boa forma de se fazer isso
seria tomar como base modelos de referência consagrados,
tais como CMMI, COBIT, ISO e ITIL.
A integração entre sistemas de automação e controle de processos
(TA) e sistemas corporativos (TI) é um requisito antigo. Um dos
modelos de referência mais citados na área de TA é o ISA-95
(ver figura), padrão internacional criado pela ISA (International
Society of Automation), usado para
se determinar quais informações
devem ser trocadas entre os
sistemas de produção, manutenção
e qualidade com os de back office
como compras, finanças e logística.
Os sistemas corporativos, como
por exemplo os ERP (Enterprise
Resource Planning), usualmente
não são projetados para conversar
diretamente com os sistemas
de “chão de fábrica”. Atuando
como intermediários entre esses
dois mundos estão os sistemas PIMS (Process Information
Management System) e MES (Manufacturing Execution Systems),
presentes no nível 3 do modelo da ISA. Esses sistemas controlam
a produção, coletam os dados da planta industrial por meio de
subsistemas de nível 2 como o SCADA (Supervisory Control And
Data Acquisition), organizando, armazenando e disponibilizando-
os para aplicações do nível 4, responsáveis pelo planejamento
da produção.
Ao se buscar o alinhamento entre TA e TI e a integração entre
seus sistemas, uma especial atenção deve ser dada às redes de
comunicação de dados, que devem ser segregadas e protegidas.
Falhas de segurança em redes e sistemas de TA, especialmente
os que controlam instalações industriais, tais como hidrelétricas,
caldeiras e reatores nucleares, podem resultar não só em prejuízos
financeiros mas em desastres de grandes proporções.
Quando prevalece a sinergia entre TA e TI, quem ganha é a
empresa. A TA tem muita informação a oferecer para a TI, bem
como a TI tem muito aprendizado e boas práticas que podem
contribuir com os projetos de TA.
Para saber mais:
http://www.isa-95.com/
http://www.isa.org
95
Technology leadership council Brazil Technology leadership council Brazil
o “vale do grafeno” e a revolução Tecnológica
Carlos Alberto Alves Matias
O grafeno é uma camada plana
de átomos de carbono, da família
do grafite e diamante, com padrão
hexagonal, possuindo várias pro-
priedades muito interessantes:
resistente, leve, flexível, quase
transparente, e como excelente
condutor poderá substituir o silício na
produção de alguns equipamentos
eletrônicos, tornando-os mais rápi-
dos, compactos e eficientes. As
aplicações do grafeno parecem
infinitas: nanotecnologia, acesso
mais veloz à Internet, baterias mais duráveis e recarregáveis
em poucos minutos, além de filtros de água mais eficientes,
cimentos mais resistentes, motores mais econômicos e menos
poluentes. Tudo com matéria-prima de baixo custo.
Descoberto na década de 30, o grafeno teve pouca atenção até
que os cientistas russos Konstantin Novoselov e Andre Geim
conseguiram isolar o material à temperatura ambiente, merecendo
o prêmio nobel de física em 2010.
Diante dessas tão incríveis propriedades do grafeno, laboratórios
ao redor do mundo estão recebendo altos valores para que os
cientistas possam fazer suas pesquisas no desenvolvimento
de novas e importantes aplicações.
A Comissão Européia destinará um bilhão de Euros para apoiar
projetos pioneiros na próxima década. Nos EUA e em outros
países não será diferente. Construído numa área de 6.500 m2 na
Universidade Mackenzie, em São Paulo, o centro de pesquisas
Mackgrafe, terá investimento aproximado de R$ 30 milhões e
deverá ser inaugurado em maio de 2014.
Atualmente, 1 Kg de grafite custa US$ 1 e dele pode-se extrair
150g de grafeno, avaliado em pelo menos US$ 15 mil, uma
fantástica valorização! Prevê-se que o mercado de grafeno
terá potencial para atingir até US$ 1 trilhão em 10 anos. E o
melhor, estima-se que o Brasil possua a maior reserva mundial,
segundo relatório publicado em 2012 pelo DNPM (Departamento
Nacional de Produção Mineral).
O grafeno já é utilizado para fabricar eletrodos de baterias,
telas táteis, dispositivos de eletrônica digital e compostos para
a indústria aeronáutica. Porém, especialistas afirmam que o
melhor ainda está por vir.
Um novo tipo de cabo de transmissão
de dados poderá deixar a Internet
ultraveloz. Segundo pesquisa
publicada pela revista Nature
Communication, a ideia é aproveitar
toda a velocidade alcançada pelos
elétrons no grafeno. Por outro lado,
cientistas da Berkeley University
pensam que o segredo da rapidez
não esteja nos cabos, mas sim nos
moduladores de rede – equipamentos
responsáveis por gerenciar o envio
dos pacotes de dados na Internet.
Purificar a água salgada, transformando-a em potável e com baixo
custo, poderia ajudar áreas secas, como o nordeste brasileiro.
O processo, criado por pesquisadores do Massachusetts
Institute of Technology (MIT), consiste em passar a água do
mar por um filtro extremamente fino de grafeno, retendo todas
as impurezas nela contidas, podendo eliminar até materiais
radioativos, o que poderia reduzir contaminações como as
ocorridas recentemente em Fukushima.
Na University of California, um aluno descobriu, casualmente, que
ao submeter um disco de grafeno a uma carga elétrica por apenas
dois segundos, um LED se manteve aceso por cinco minutos.
Engenheiros da Stanford University, substituíram o carbono
por grafeno numa nova bateria, cuja recarga se completou em
poucos minutos, cerca de mil vezes mais rápido.
O grafeno possui 200 vezes mais mobilidade de elétrons do
que o silício, o que pode permitir a produção de processadores
mais potentes, com até 300 GHz de frequência. E o monóxido
de grafeno tem a múltipla versatilidade de ser isolante, condutor
e semicondutor, podendo ser muito útil em nanochips.
Já imaginou um celular no formato de uma pulseira? Sim, isto
poderá ser possível graças à flexibilidade do grafeno. Muitas
empresas já registraram diversas patentes relacionadas ao
promissor cristal revolucionário e as pesquisas avançam a cada
nova descoberta.
O futuro ao grafeno pertence e vai mudar a nossa vida!
Para saber mais:
https://ibm.biz/BdDNb4
https://ibm.biz/BdDNbs
https://ibm.biz/BdDNbi
96
Technology leadership council Brazil
o Tempo não para, mas pode ser melhor aproveiTado...Antônio Gaspar, Hélvio Homem, José C. Milano, José Reguera, Kiran Mantripragada,
Marcelo Sávio, Sergio Varga e Wilson E. Cruz.
Para muitas pessoas com mais de 35 anos, Ayrton Senna
“morreu ontem”. É como se desse para fechar os olhos e viver
de novo a sensação de ligar a TV no domingo pela manhã e vê-
lo vencendo mais uma. Ayrton faleceu em 1o de maio de 1994.
O surpreendente é que a World Wide Web e seus browsers
começaram a se popularizar em 1995, ou seja, logo depois disso.
Mas poucos são capazes de se lembrar claramente como era
a vida sem Internet. Qual a causa desse estranho paradoxo?
O psicólogo israelense Daniel Kahneman introduziu insights
da área dele na ciência econômica, especialmente no que diz
respeito a avaliação e tomada de decisão sob incerteza. Ele
afirmou que teríamos dois sistemas em nossos cérebros. Um
lento, que envolve atenção e foco, que usamos nas atividades
em que temos consciência e controle. E outro, extremamente
rápido, independente e incontrolável, péssimo em estatísticas
mas ótimo em gerar decisões rápidas por comparação. Por esse
trabalho Kahneman recebeu em 2002 o Prêmio do Banco da
Suécia em Ciências Econômicas em memória de Alfred Nobel
(comumente e erroneamente chamado de Prêmio Nobel da
Economia). Será que a nossa sensação de passagem de tempo
tem a ver com esses sistemas descritos pelo aclamado cientista?
Aparentemente sim e também há sinais de que essa percepção
varia de pessoa para pessoa. O relógio interno seria uma medida
pessoal e dependente de algum referencial, isto é, duas pessoas
no mesmo lugar e executando as mesmas atividades podem
ter a percepção de que o tempo passou mais rápido para uma
do que para outra. Isso acontece, entre outras coisas, porque
cada um grava os fatos em um nível de intensidade diferente,
dependendo de sua relação pessoal com os acontecimentos.
Uma frase de Einstein pode dar mais luz a esse fenômeno: “Quando
um homem senta com uma garota bonita por uma hora, lhe parece
um minuto. Mas quando senta numa chapa quente por um minuto,
lhe parece uma hora”. A isso ele chamou de relatividade, uma
ideia brilhante que nos aponta para um tempo experiencial, que
passa mais rápido ou devagar dependendo de como se encara
uma determinada experiência. Ou seja, temos duas variáveis
que, combinadas, nos dão uma pista sobre a percepção de
tempo. A primeira variável é o que está passando na frente de
nossos sentidos (os fatos, a chapa quente) e a segunda é como
encaramos ou respondemos a esses fatos, ou seja, a frequência,
a intensidade e a maneira particular como cada um monta as
conexões cerebrais (ou sinapses) em resposta ao que se passou.
Isso talvez nos conduza a um método para tentar reagir à sensação
desagradável de tempo passando cada vez mais rápido: basta
escolher a própria vida (os fatos) e mergulhar nela com especial
atenção em cada momento, tornando-o inédito e digno de muitas
conexões cerebrais, saboreando-o como se fosse sempre pela
primeira vez (ou como se fosse o último). O método automático
é, sem dúvida, mais confortável mas nos rouba a capacidade
de viver plenamente os momentos e torná-los inesquecíveis.
Também cria aquela sensação de tempo perdido, do eterno
correr atrás do sol que se põe, muito bem retratada na música
Time do Pink Floyd. E para ajudar na tarefa de melhor aproveitar
o tempo, vale a pena lembrar de outra música, Seasons of Love
do musical da Broadway Rent, que nos sugere medir um ano
não somente por seus 525.600 minutos, mas sobretudo pelas
boas experiências vividas durante esse tempo, seja no trabalho,
em casa ou na comunidade em que vivemos.
É comum imaginar o tempo como algo contínuo, infinito e talvez
até cíclico. Ao menos, foi assim que Stephen Hawking procurou
descrever a forma do tempo ao representá-lo usando um “Corpo
de Moebius”. A questão intrigante nessa topologia é que não
existe lado de dentro nem lado de fora, não existe um começo
nem um fim, mas sempre estamos percorrendo o mesmo espaço.
Em seu livro "O Universo numa Casca de Noz", Hawking afirma
que a maioria de nós quase nunca presta atenção à passagem
do tempo, mas todos de vez em quando se intrigam com o
conceito de tempo e seus paradoxos.
E cá estamos nós, do comitê editorial do TLC-BR, após duzentas
quinzenas. Será que passou muito ou pouco tempo? Ao olharmos
para o Mini Paper número 1, há quatrocentas semanas (pouco
mais de quatro milhões de minutos), ainda podemos lembrar do
momento de sua criação e também das muitas aventuras que
saboreamos no percurso de sua publicação. As chapas quentes
existiram, mas os bons papos com autores, revisores, leitores e
até críticos, gravaram milhões de conexões inesquecíveis em
nossos cérebros. Cada Mini Paper foi único, mas em comum
nos deixaram com gosto de quero mais. Queremos novos temas,
autores, experiências e sinapses que nos permitam aproveitar os
momentos de sua criação e publicação, assim como esperamos
que lhe proporcionem momentos proveitosos de leitura. Que
venham mais duzentos Mini Papers!
Para saber mais:
Corpo de Moebius: http://en.wikipedia.org/wiki/M%C3%B6bius_strip
Daniel Kahneman: http://en.wikipedia.org/wiki/Daniel_Kahneman
Stephen Hawking: http://en.wikipedia.org/wiki/Stephen_Hawking
97
Technology leadership council Brazil Technology leadership council Brazil
onTologias e a weB semânTica
Fábio Cossini
Apesar de desconhecidas para a maioria das pessoas e
profissionais de TI, as ontologias têm sua origem na Grécia
antiga, tendo sido utilizadas por filósofos como Aristóteles e
Porfírio. Com sua evolução, hoje estão presentes em diversas
áreas do conhecimento humano e, em TI, em aplicações para
inteligência artificial, gestão do conhecimento, processamento
de linguagem natural e engenharia de software. Então, o que
vem a ser uma ontologia e como ela é peça fundamental na
construção da Web Semântica?
Há várias definições para ontologia, mas
uma das mais encontradas é a de Tom
Gruber: “Ontologia é uma especificação
formal e explícita de uma conceitualização
compartilhada”. O World Wide Web
Consortium (W3C), por sua vez, conceitua
uma ontologia como “a definição dos termos
utilizados na descrição e na representação
de uma área do conhecimento”. Por exemplo,
uma ontologia sobre os padrões da Internet
das Coisas (área de conhecimento)
descreveria esses padrões (objetos), seus
atributos (termos) e os relacionamentos
encontrados entre eles.
As ontologias podem ser consideradas como
um dos níveis mais altos de expressividade do conhecimento,
pois englobam as características presentes em vocabulários,
glossários, taxonomias e frames, além de permitir a expressão
de restrições de valores (por exemplo, o conjunto único de
valores para representar as unidades da federação no Brasil) e
restrições de lógica de primeira ordem (um CPF está associado
a uma e somente uma pessoa física), além de outras restrições.
Por sua vez, a Web Semântica é definida pelo W3C como
o próximo grande objetivo da Web, que permitará que
computadores executem serviços mais úteis por meio de
sistemas que ofereçam relacionamentos mais inteligentes. Em
outras palavras, a Web passará de páginas com conteúdo
para páginas com significado (semântica). Tente fazer uma
pesquisa com a palavra “limão” e você terá resultados que
vão desde a definição de uma fruta cítrica até restaurantes e
um conhecido bairro paulistano.
Só você, visualmente, conseguirá separar aquilo que realmente
lhe interessa daquilo que está fora do seu contexto de pesquisa.
As bases da Web Semântica serão as ontologias, que permitirão
dar significado às páginas de conteúdo além de relacioná-las
entre si. Os computadores poderão executar queries por meio
de agentes para encontrar de forma mais rápida e precisa o
conjunto de informações desejadas, além de proporcionar a
possibilidade de inferência sobre elas e seus relacionamentos.
Para dar significado a Web tradicional
baseada em páginas de conteúdo estático
(HTML), faz-se necessário que elas venham
acompanhadas de outras tecnologias. O
Resource Description Framework (RDF),
o Resource Descripiton Framework
Schema (RDF-S) ou o Simple Knowledge
Organization System Reference (SKOS)
são linguagens usadas para descrever o
conteúdo de uma página. Conjugadas com
linguagens ontológicas como a Ontology Web
Language (OWL), entre outras, trazem à tona
conhecimento estruturado permitindo o uso
de agentes para busca e inferência.
Apesar dos benefícios da Web Semântica,
alguns obstáculos ainda estão presentes para
sua completa adoção. Paradoxalmente, há pouco conteúdo
semântico, tornando difícil sua própria evolução. A integração de
diferentes idiomas adiciona esforços de codificação para que o
mesmo conteúdo seja interpretado por ontologias escritas para
outros idiomas. E, acima de tudo, nenhuma linguagem ontológica
é comumente aceita como a ideal para a Web Semântica, além
de não serem totalmente padronizadas entre si, tornando mais
difícil sua integração.
Dessa forma, ainda há um esforço de padronização e adoção
antes de colhermos os frutos que o significado e a automação
de busca trarão sobre a Web Semântica.
Para saber mais:
Web Semântica: A Internet do Futuro. Karin K. Breitman.
Semantic Web for the Working Ontologist: Effective Modeling in RDFS and OWL. D. Allemang e J. Hendler.
Six Challenges for the Semantic Web. Oscar Corcho et Al.
98
Technology leadership council Brazil
cusTomização em massa: oBTendo uma vanTagem compeTiTiva
Claudio Marcos Vigna
Cada vez mais as empresas têm repensado suas formas de
fazer negócios. É nesse contexto, em que buscam diferenciais
para obter vantagens competitivas, que muitas têm adotado a
estratégia da customização em massa (CM).
A proposta da CM é oferecer produtos únicos numa escala de
produção agregada comparável à da produção em massa e a
custos relativamente baixos. Para tanto, a CM exige da empresa
que a adota, agilidade e flexibilidade em atender diferentes
pedidos em diferentes quantidades a custos comparáveis aos
de produtos padronizados e com alto padrão de qualidade.
A palavra customização advém do inglês customization, que por
sua vez deriva da palavra customer, que em português significa
cliente. Não existe uma tradução para o termo customization
e dessa forma, por falta de uma tradução adequada, esse
termo foi aportuguesado como customização, que segundo B.
Joseph Pine II, pode ser entendido como o atendimento dos
anseios específicos de cada cliente ou até a personalização
em massa de produtos.
No Brasil existem algumas iniciativas embrionárias em direção
à CM. Podemos citar como exemplos, uma empresa de
eletrodomésticos que permite a seus clientes personalizarem
geladeiras e fogões, e empresas automobilísticas que já permitem
customizar alguns componentes direto da fábrica.
Ter a capacidade de atender o cliente com produtos customizados
é o desejo de muitas empresas, pois tal iniciativa cortaria custos
relativos a estoques e aumentaria a satisfação do cliente que
adquiriu o produto customizado. Mas, para isso, as empresas
devem vencer os obstáculos decorrentes da sua adoção.
A capacitação em CM requer excelência de desempenho
nas áreas funcionais de toda a cadeia de valor envolvida na
operação. Segundo modelo de Claudio Vigna e Dario Miyake,
a capacitação pode ser obtida pelo desenvolvimento de
competências funcionais, que por sua vez são sustentadas
por recursos organizacionais e técnicas operacionais em cinco
áreas consideradas críticas. Tais áreas e seus objetivos estão
descritas a seguir:
Planejamento do produto e processo: desenvolvimento de
produtos customizáveis que atendam às necessidades do cliente
e não comprometam a eficiência dos processos operacionais.
Um exemplo é o desenvolvimento de produtos modulares, tais
como uma plataforma de veículos para ser compartilhada entre
diferentes modelos.
Logística de abastecimento: melhoria do relação da empresa com
seus fornecedores para otimizar os processos. Ao adotar a troca
eletrônica de dados (EDI — Electronic Data Interchange), é possível
aplicar técnicas de inventário gerido pelo fornecedor (VMI — Vendor
Managed Inventory) para reposição contínua de produtos.
Operações internas: aumentar a flexibilidade e produtividade
das operações de produção e
logística interna, por exemplo,
adoção de sistemas flexíveis
de manufatura (FMS — Flexible
Manufacturing System), ou
robôs capazes de executar
diferentes atividades, confor-
me programa de produção.
Logística de distribuição:
possuir assertividade e agili-
dade nas operações da logís-
tica desde a expedição até a
entrega ao cliente, por exemplo, adoção de técnicas cross
docking e utilização de roteirizadores inteligentes.
Marketing e vendas: aumentar a interação com o cliente por meio
do aprimoramento dos canais de promoção e das operações
de captura de pedidos, por exemplo, adoção de soluções
inteligentes de e-commerce, de engines de monitoramento
de redes sociais e de data mining.
A aplicação da customização em massa pode ser benéfica para
as empresas, aumentando as receitas, o lucro e a participação de
mercado, mas sua adoção não é tão trivial. Apesar dos obstáculos,
executivos têm dedicado esforços para a sua implementação.
Para saber mais:
http://www.teses.usp.br/teses/disponiveis/3/3136/tde-27072007-160311/pt-br.php
http://en.wikipedia.org/wiki/Mass_customization
http://mass-customization.de/
99
Technology leadership council Brazil Technology leadership council Brazil
sofTware defined neTwork – o fuTuro das redes
Leônidas Vieira Lisboa e Sergio Varga
A recente evolução nos modelos de entrega de TI, com serviços
em nuvem, sistemas analíticos e desktops virtuais, intensifica
a demanda por uma infraestrutura de TI que seja simples,
escalável e flexível.
Para atender essas demandas, a indústria avançou no
desenvolvimento de tecnologias de virtualização de servidores e
storage, trazendo maior agilidade no aprovisionamento de recursos
em um data center. No entanto, esse avanço não foi acompanhado
pela indústria de rede. Alterações na camada de rede usualmente
requerem intervenções complexas
e com baixo grau de automação,
aumentando o prazo e o risco para
implementação de novos serviços.
Há pouca flexibilidade para absorver
mudanças de tráfego, impactando
o suporte a ambientes dinâmicos
como os requeridos pelo mercado.
Em grande parte, essa complexidade
reside no fato de que cada modelo
de equipamento de rede é projetado
para executar funções específicas.
Além disso, as funções de controle
e entrega de pacotes são realizadas
por cada dispositivo de forma
descentralizada. A camada de paco-
tes (ou dados) é responsável pelo
envio, filtragem, buffering e medição dos pacotes, enquanto a
de controle é responsável por mudanças na topologia da rede,
rotas e regras de envio.
Uma nova tecnologia foi desenvolvida para agilizar o
aprovisionamento de recursos de comunicação, facilitar a
administração e a operação e simplificar a infraestrutura de rede.
Ela tem sua base em três pilares. O primeiro é a separação das
camadas de controle (lógico) e de entrega de dados (físico) em
equipamentos distintos, o que permite controle centralizado. O
segundo é virtualização ou abstração da rede física, permitindo
designar o melhor caminho para cada tráfego, independente da
infraestrutura física. E o terceiro é a capacidade de programação
da rede, propiciando a automação da configuração da rede, ou
seja, sistemas externos podem automaticamente definir a melhor
configuração de rede para uma dada aplicação.
Essa tecnologia se chama Software Defined Network (SDN) e
promete trazer agilidade e flexibilidade em expansões e mudanças
de rede. Os switches de rede se tornam mais simples e menos
inteligentes pois todas funções do plano de controle são feitas por
uma camada externa centralizada, denominada SDN controller
que sai dos equipamentos de rede e passa a ser um software
executado em um servidor comum.
Para padronizar e promover o uso do SDN foi criada uma
organização chamada Open Network Forum (ONF) que é
liderada por empresas usuárias e que também conta com a
participação de fabricantes de equipamentos. Ela incentiva
a adoção do SDN por meio do desenvolvimento de padrões
abertos. Um dos resultados desse
trabalho foi o OpenFlow, um protocolo
que padroniza a comunicação entre
um SDN controller e o plano de dados
dos equipamentos de rede. Apesar de
ser o protocolo mais associado com
SDN, alguns fabricantes já começam
a empregar outros protocolos, como
BGP (Border Gateway Protocol) e
XMPP (Extensible Messaging and
Presence Protocol), para implementar
casos de uso de SDN em redes que
exigem maior escalabilidade, pois
ainda há discussões no mercado
sobre a capacidade máxima de
projetos SDN com base somente
em OpenFlow.
Outra iniciativa importante é a aliança Open Daylight, liderada
por fabricantes da indústria de redes e que propõe a criação de
uma estrutura robusta, sobre código aberto da Linux Foundation,
para construir e suportar uma solução SDN.
Hoje, essa tecnologia é mais aplicável para redes de data centers,
mas já existem iniciativas para utilizá-la no aprovisionamento de
serviços em redes de telecomunicações. O uso de SDN ainda
não se massificou mas seu desenvolvimento foi incorporado por
todos os principais fabricantes de rede. Também é interessante ver
que alguns ambientes de nuvem já estão testando e incorporando
características de SDN para obter ganhos de produtividade na
administração da rede e endereçar os desafios de eficiência
enfrentados atualmente.
Para saber mais:
https://www.opennetworking.org/
http://www.opendaylight.org/
https://www.opennetworking.org/sdn-resources/onf-specifications/openflow
100
Technology leadership council Brazil
uma visTa privilegiada do planeTa Terra
Kiran Mantripragada
Sensoriamento remoto não é um assunto assim tão novo. Na
verdade a Terra vem sendo fotografada de forma sistemática
por aeronaves desde o início da primeira guerra mundial com
o objetivo de mapeamento, reconhecimento e vigilância.
Hoje os sistemas embarcados em satélites estão mais baratos
e miniaturizados. A evolução nos sensores permitem maior
resolução espacial e espectral. Isso significa que um único
pixel da imagem pode capturar objetos com menos de um
metro quadrado na superfície da Terra, enquanto a análise
em diferentes faixas do espectro eletromagnético ou acústico
permite diferenciar características que antes eram impossíveis
de se fazer, por exemplo a identificação de espécies vegetais.
Desde a primeira guerra, a resolução
espacial variou de alguns quilômetros
por pixel até menos de um metro por
pixel enquanto a resolução espectral
permite hoje coletar imagens com mais
de duzentas bandas de frequência. Para
se ter uma ideia, as nossas câmeras
comuns fotografam somente as três
bandas do espectro visível, ou RGB
(Red, Green, Blue). Há ainda satélites
equipados com sensores tipo RADAR,
ou seja, que coletam ondas acústicas
em vez de eletromagnéticas.
Utilizando um princípio relativamente
simples, a reflexão de ondas, é possível fotografar o planeta Terra
de forma sistemática. Um sensor equipado em uma aeronave
(satélite, avião, ou até um balão) recebe diferentes valores de
intensidade para cada material que reflita o seu sinal. Por exemplo,
uma planta e o telhado de uma casa refletem um determinado
sinal eletromagnético com intensidades diferentes.
Graças à popularização dessa tecnologia, os estudos em
processamento de imagens de sensoriamento remoto vêm
ganhando muito destaque no meio acadêmico. Algumas
empresas também já exploram comercialmente esse tipo de
serviço e outras fornecem pesquisas sob demanda, normalmente
com aeronaves de altitudes mais baixas para atender um
propósito específico.
As aplicações são inúmeras: produção agropecuária,
monitoramento de florestas, análise e previsão meteorológica,
vigilância militar e civil, planejamento urbano, ocupações
irregulares, análise de correntes marítimas, análise de
biodiversidade vegetal e animal, medições e análises de corpos
d’água, indústria de petróleo e gás, previsão e monitoramento de
desastres naturais, controle de fronteiras, crescimento urbano,
planejamento de transporte, vias públicas, rodovias, ferrovias etc.
Esse avanço tecnológico que possibilitou tantas aplicações
trouxe também problemas bastante desafiadores. Os pixels
de uma única imagem são grandes quantidades de dados em
duas dimensões em tons de cinza. Associa-se a isso, imagens
com bilhões de pixels em centenas de faixas espectrais e temos,
então, matéria-prima para o famoso Big Data com dados na
casa do 100-dimensional.
Alguns dessses conjuntos de dados estão disponíveis gra-
tuitamente na Internet. Por exemplo, a
página Web Earth Explorer da NASA/
USGS (United States Geological Survey)
permite baixar imagens de qualquer parte
do mundo, desde meados de 1970 até
hoje ou até a última passagem do satélite
Landsat sobre o local de interesse.
Há também dados de diversos outros
satélites e de alguns produtos resultantes
de pós-processamento de imagens. Por
exemplo pode-se baixar um mapa com
índices de vegetação chamado NDVI
(Normalized Difference Vegetation Index).
Esse tipo de informação é muito usado
em agropecuária e mapeamento de florestas.
Assim, inicia-se uma disciplina dentro da computação cognitiva
que busca capturar informações relevantes a partir desse universo
de dados sensoriais. Algoritmos de machine learning precisam
lidar com enorme quantidade de pixels para interpretá-los e
transformá-los em informação consumível pelo ser humano.
A tecnologia que envolve o sensoriamento remoto é mais um
legado que ficou disponível para o mundo depois das guerras e
das corridas armamentista e espacial. Cabe então a cada um de
nós, cientista, empresário, professor, fazendeiro, gestor público ou
apenas um cidadão curioso, fazer uso desse conjunto fantástico
de dados, totalmente disponíveis, muitos deles sem nenhum
custo, para ajudar a observar, vigiar, preservar e transformar
o nosso planeta.
Para saber mais:
USGS Earth Explorer: http://earthexplorer.usgs.gov
What is Remote Sensing: http://oceanservice.noaa.gov/facts/remotesensing.html
101
Technology leadership council Brazil Technology leadership council Brazil
sorria, você pode esTar nas nuvens
Antônio Gaspar
O mundo está cada vez mais ins-
trumentado, interconectado e inteligente.
Essa frase abriu o artigo da pág. 64,
publicado pela série Mini Papers do
TLC-BR. Nesse contexto, falemos um
pouco sobre a evolução da câmeras de
CFTV (Circuito Fechado de TV) para uso
residencial. As câmeras de captação de
vídeo evoluíram a partir dos modelos
analógicos, chegaram aos digitais e hoje
são compatíveis com tecnologias de rede
local Wi-Fi. As chamadas câmeras IP
tornaram-se dispositivos inteligentes a
um custo acessível para uso doméstico. Uma câmera IP, além
de prover função básica de captura de imagem, inclui aplicação
e interface web que disponibiliza funções adicionais como
captação de som ambiente e movimento com envio de alertas
por email, SMS e redes sociais, visão noturna, configuração de
múltiplos perfis de acesso e horários de operação etc.
Em geral as câmeras possuem pouca ou nenhuma capacidade
de armazenamento de dados, ou seja, permitem visualização
em tempo real mas a gravação depende de serviços externos.
Então é necessário ter servidores de gravação (dispositivos
DVR — Digital Video Recorder) nas instalações vigiadas para
armazenar as imagens.
Sendo assim, um cidadão investe em algumas câmeras IP que
permitem monitoração 24x7 e grava no seu computador ou
DVR. Precavido que é, mitiga problemas de indisponibilidade
instalando nobreaks para as câmeras e o dispositivo de gravação.
Entretanto, há uma condição fora de seu controle e que deve ser
levada em consideração: e se o ambiente for invadido? O que
fazer se o dispositivo de gravação for subtraído e, junto dele,
todas as imagens? Aliás, isso é comum em eventos desse tipo.
A área de segurança eletrônica residencial esbarra em maneiras
de armazenar remotamente as imagens gravadas.
Bem, foi-se o tempo em que cada residência tinha um computador
pessoal cujos arquivos ali permaneciam, isoladamente. Estamos
na era do wireless, dos smartphones e das nuvens, tudo mais
inteligente e interconectado. Com a migração de armazenamento,
servidores e desktops para a nuvem, os sistemas de segurança
seguem a mesma tendência. Segundo previsões do Gartner para
o setor, uma em cada dez empresas processarão os recursos
de segurança em nuvem até 2015. Na linha residencial, isso
não deverá ser diferente. Ter suas imagens capturadas por um
serviço de armazenamento de câmera de
segurança off-site, na nuvem, é possível
e é a solução para sinistros tais como
citados anteriormente.
As vantagens da gravação de CFTV
residencial em nuvem são inúmeras:
independência de servidores locais
(menos equipamentos no local monitorado),
imunidade à perda de imagens por furto de
equipamento (incluindo furto das próprias
câmeras, uma vez que a imagem é gravada
externamente), backup de gravações (é
possível baixar as gravações do sistema
para dispositivos móveis), segurança e privacidade (controle de
acesso ao portal e comunicação segura), viabilização de uso de
câmeras wireless (menos cabeamento, fácil instalação), e por
fim, a visualização das imagens podem ser feitas por diversos
tipos de dispositivos a qualquer momento, em qualquer lugar.
Mas como contratar um serviço desses? São poucas opções
e muito voltadas ao mercado corporativo, especialmente
condomínios, empresas e estabelecimentos comerciais.
Felizmente, esse perfil está mudando e surgiram opções para
o mercado residencial. No mercado nacional, os preços ainda
são elevados, mas como a nuvem é agnóstica a fronteiras
geográficas, há empresas no exterior com serviços e preços
bem interessantes, caso o idioma inglês não seja uma restrição.
Esse tipo de serviço é geralmente cobrado pela combinação
de uma ou mais variáveis tais como gigabytes armazenados,
tempo de retenção, número de câmeras capturadas, número
de frames por segundo etc. Além disso, os provedores desse
tipo de serviço, chamado de VSaaS (Video Surveillance as
a Service) oferecem um portfólio vasto de funcionalidades
agregadas à simples captura de imagem. Serviço de indexação
de gravações, notificação de câmera fora de serviço, inicio
automático de gravação a partir de detecção de movimento,
alertas com fotos anexadas etc. Há, inclusive pacotes simples
de serviços de gravação, sem custo e sem compromisso com
prazo de contrato. Portanto, quando vir uma placa de “sorria,
você esta sendo filmado”, pense que sua imagem pode estar
muito além do que você imagina.
Para saber mais:
http://www.researchandmarkets.com/research/m9wgm4/video
http://en.wikipedia.org/wiki/VSaaS
102
Technology leadership council Brazil
iBm mainframe – 50 anos de liderança Tecnológica e Transformação
Daniel Raisch
Com o fim da II Guerra Mundial a computação comercial ganhou
grande impulso, levando varias empresas de tecnologia na
Europa e nos EUA a investirem nesse mercado. A IBM, que
se lançou nessa jornada no início dos anos 50, chegou aos
anos 60 com pelo menos três famílias de computadores de
grande porte em produção, firmando-se como um dos grandes
fornecedores do mercado.
Esse aparente sucesso não escondia os desafios que a IBM
enfrentava internamente. As várias linhas de computadores
tinham arquitetura e tecnologias distintas, linhas de produção e
gestão independentes e até incompatibilidade entre os modelos
da mesma família e seus periféricos. Administrar essas linhas
tornava a produção mais cara e abria espaço para a concorrência
toda vez que um cliente tinha necessidade de upgrade.
Foi a partir desse cenário que Thomas
Watson Jr., na época IBM Chairman of
the Board, decidiu lançar a corporação
no projeto de um novo computador
que tivesse como características, a
compatibilidade total entre os modelos,
periféricos e aplicativos, e que buscasse
suprir as necessidades computacionais
dos clientes nas várias indústrias.
Foi com essa missão que o executivo
Bob Evans e seu time de arquitetos, Fred
Brooks, Gene Amdahl e Gerrit Blaauw, desenharam o computador
System/360 (S/360), um sistema para todos os propósitos, por
isso o nome S/360.
Com orçamento de US$ 5B e mais de dois anos de trabalho, o
S/360 deu origem à família de mainframes IBM, os computadores
de grande porte de maior sucesso no mercado, que se tornou
o benchmark da indústria de computação comercial.
O anúncio oficial foi feito por Thomas Watson Jr. em 7 de Abril
de 1964, na cidade de Poughkeepsie, NY, EUA.
O Mainframe, hoje denominado System z, transformou a empresa.
Sete novas fábricas foram inauguradas para atender à demanda,
outras linhas de computadores foram fechadas paulatinamente,
e o número de funcionários cresceu exponencialmente. Toda a
corporação girava em torno dessa nova família de computadores.
A indústria também foi transformada. A aviação civil avançou
com a implementação do sistema de reservas SABRE, os
bancos entraram no mundo online e o homem pisou na Lua.
O S/360 esteve presente em tudo isso, sendo considerado
pelo escritor americano Jim Collins, um dos três produtos de
maior impacto nos negócios, junto com os primeiros carros
da Ford e os jatos da Boeing.
A engrenagem sonhada por Thomas Watson Jr. girou forte e a IBM
começou a dominar o mercado. A renda da corporação cresceu
ano após ano, diferentemente dos resultados da concorrência.
Em meados dos anos 70, a IBM se tornou a maior empresa de
computadores do mundo figurando entre as TOP 10 empresas
do mundo de acordo com a Fortune Magazine.
No Brasil dos anos 70 e 80, devido à política governamental de
informática que restringia a importação de computadores, os
Mainframes IBM tiveram uma penetração
muito expressiva, impulsionados pela
sua fábrica em Sumaré, SP.
Nesse período, a IBM Brasil teve um
crescimento acelerado, ampliou a base
de clientes, aumentou o faturamento
e abriu filiais próprias nas principais
capitais do país, deixando um legado
de estabilidade para os difíceis anos 90.
Cinquenta anos depois, verificamos
que a robustez da arquitetura original
aliada à sua liderança tecnológica, permitiram que o IBM
Mainframe se mantivesse vivo no mercado e relevante para
os seus clientes e para toda a corporação até os dias de hoje.
Atualmente, o Brasil ocupa o terceiro lugar no cenário mundial do
mercado de mainframes, o que representa um parte significativa
do faturamento da IBM Brasil.
Nenhum outro produto de tecnologia se manteve por tanto
tempo no mercado, e nenhum outro produto da IBM contribuiu
tanto para o sucesso da corporação.
Sem medo de errar, pode-se dizer que a IBM fez o Mainframe
e o Mainframe fez a IBM.
Para saber mais:
http://ibmmainframe50anos.blogspot.com
Livro: Father, Son & Co. - Thomas Watson Jr.
Livro: Memories That Shaped an Industry - Emerson Pugh
103
Technology leadership council Brazil Technology leadership council Brazil
a inTeroperaBilidade na inTerneT das coisas
Paulo Cavoto
A Internet das Coisas está cada vez mais presente. A popu-
larização de tecnologias de proximidade como o NFC (Near
Field Communication) e o RFID (Radio-frequency identification),
além da miniaturização de componentes e o crescente aumento
da velocidade e da confiabilidade das redes de comunicação,
aceleram e impulsionam o surgimento de equipamentos inteli-
gentes e intercomunicáveis.
No Mini Paper da pág. 80 (Os desafios da Internet das
Coisas), Fábio Cossini descreve as principais barreiras para
consolidação e ampla aceitação dessa nova era tecnológica.
Essa transformação também traz uma grande ruptura na área
de desenvolvimento de software.
Muito disso já é realidade e a arquitetura do software executado
nesses dispositivos inteligentes é voltada à comunicação direta
entre máquinas (M2M – Machine To
Machine), porém sempre com escopo
muito bem definido de possibilidades.
Por exemplo, sua adega poderá ter
um componente de integração com
lojas online, assim seu eletrodoméstico
poderá avisar se você deve comprar
mais vinho e eventualmente poderá
até fazer sugestões com base
no seu padrão de consumo. Mas
provavelmente esse dispositivo não
vai conversar com sua televisão para
lhe dar as opções de vinho disponíveis ou com o seu fogão
para saber qual deles melhor harmoniza com o que esta sendo
preparado, quando os dispositivos forem de marcas diferentes
O mercado vem lidando com ambientes cada vez mais
heterogêneos e interconectados há algum tempo. Sistemas
com maior capacidade de extensão e de integração são os
pedidos mais comuns que os fabricantes têm recebido e novos
produtos inteligentes nascem a todo momento, ainda que
muitas vezes, esses produtos não se comuniquem com os
de outros fabricantes.
É impossível contemplar todas as possibilidades de interações
entre os dispositivos, porém deve-se promover a conectividade
com a maior quantidade possível de dispositivos, inclusive
com aqueles ainda nem foram inventados. Essa possibilidade
deve ser uma diretriz para que a Internet das Coisas evolua e
alcance mais adeptos. Os projetos de novos aplicativos não
conseguirão prever qualquer tipo de interação, mas devem
se basear em uma arquitetura que suporte a propagação e o
consumo de mensagens.
Cada novo produto deverá prover meios de comunicação e
extensões mais simples por meio de APIs (Application Program
Interfaces) públicas ou protocolos abertos, de maneira que
até mesmo um orquestrador dessas conexões torna-se
desnecessário. Com o intuito de permitir uma gama ainda maior
de possibilidades, cada componente deverá fornecer meios de
configuração com outros dispositivos usando tecnologias de
proximidade ou mesmo a Internet, algo parecido com o que
fazemos com dispositivos bluetooth.
A diferença é que uma vez “pareados”
pode-se escolher quando disparar
outro evento ou quais ações serão
tomadas assim que determinado
evento é disparado. Dessa forma, as
possibilidades de comunicação entre
dispositivos são ampliadas, deixando
a escolha da ações sob o controle do
usuário, possibilitando a criação de
redes entre dispositivos de marcas
diferentes.
Usando nosso exemplo, cada componente (a adega, o forno e
a televisão) deve gerar e consumir eventos, mas eles só serão
configurados uma vez e instalados em nossa casa por nós
mesmos. Pela televisão você poderá procurar pelos dispositivos
prontos para se comunicar e, uma vez encontrada a adega,
configurar o que fazer caso determinado evento seja disparado
por ela; o mesmo poderia ser feito entre o forno e a adega.
Cabe a nós, profissionais de tecnologia, arquitetar nossos
produtos de forma aberta e customizável. Assim, as aplicações
e possibilidades que a Internet das Coisas nos proporcionará
só serão limitadas pela nossa imaginação.
Para saber mais:
Mini Paper Series 184 (pg. 80): Os desafios da Internet das Coisas
http://www-03.ibm.com/press/us/en/pressrelease/43524.wss
104
Technology leadership council Brazil
gerência de projeTos ágil ou pmBok®?Felipe dos Santos
Desde a publicação do Manifesto Ágil, no início de
2001, a comunidade técnica de desenvolvimento
de software vem discutindo, comparando e
avaliando os métodos de gerenciamento de
projetos prescritivos (aqueles que geram mais
artefatos oferecendo uma série de controles) e
adaptativos (aqueles que se moldam durante
iterações). A partir destas definições, podemos
considerar o guia PMBOK (Project Management
Body of Knowledge), publicado pelo PMI (Project
Management Institute) como um método prescritivo
e o Scrum como um método adaptativo. O Scrum
é a metodologia ágil mais utilizada no mundo (6th
Annual “State of Agile Development” Survey, 2011)
e, por isso, será utilizado neste artigo.
Uma comparação entre essas abordagens mostra um grande
paradoxo, pois o planejamento do PMBOK deve propiciar a
prevenção de mudanças, enquanto nos métodos ágeis as
mudanças são bem vindas. Para a comunidade PMI os métodos
ágeis aparentavam ser pouco documentados, organizados e
altamente suscetíveis a falhas, devido a uma quantidade mínima
de controles. Já para a comunidade Agile as metodologias
existentes eram burocráticas e agregavam pouco valor. Com o
tempo as duas comunidades entenderam que existia espaço para
ambas metodologias. O método ágil surge, então, como uma nova
ferramenta para o gerente de projetos, dando mais flexibilidade
em projetos de natureza adaptativa. O PMI reconheceu isso e
há pouco mais de dois anos lançou a certificação PMI-ACP
(Agile Certified Practitioner) que certifica o profissional com
conhecimentos em princípios ágeis.
O PMBOK orienta que o planejamento seja completo e abrangente
e que o plano produzido seja seguido até a entrega final do projeto.
Essa abordagem é apropriada em muitos casos, já que as áreas
de conhecimento do PMBOK auxiliam o gerente de projetos
na obtenção de sucesso, pelo menos sob o ponto de vista do
“triângulo de ferro” (prazo, custo e escopo). Os métodos ágeis,
como o Scrum, defendem a ideia de que estimativas empíricas
estão sujeitas a erros e que não se deve investir muito tempo
planejando todos os detalhes, já que podem ocorrer diversas
mudanças no decorrer do projeto.
Existem projetos de natureza iterativa e incremental,
nos quais não se espera ter todas as respostas no
início. Uma novela é um bom exemplo. A novela
pode ter vários rumos conforme a aceitação do
público e, em até certos casos, essa pode ser
encerrada por não atender aos interesses da
emissora. O Scrum faria mais sentido nesse tipo
de projeto. Já para um projeto de construção de um
estádio de futebol o PMBOK seria o mais indicado,
por conta de planejamento rigoroso que inclui
gestão de riscos. Nesse tipo de projeto tudo deve
ser minuciosamente planejado no início para que
o cliente saiba exatamente o quanto vai gastar e
em quanto tempo terá sua obra concluída.
Em projetos de desenvolvimento de software, um estudo feito
pelo Standish Group (Chaos Report 2002) mostrou que 64% de
um sistema raramente é utilizado. A parte restante corresponde
ao que realmente importa para os usuários. O Scrum orienta a
priorizar o que gera maior valor ao cliente. Em certos projetos
isso quer dizer, inclusive, que podemos colocar em produção
algo inacabado, mas que já ofereça um benefício ao negócio.
Devemos levar em consideração que o cliente muitas vezes não
sabe exatamente o que quer no início de um projeto. Durante
as iterações ele pode se dar conta de que algum item já não
faz mais sentido e que um novo requisito é necessário, seja por
demanda do negócio, exploração de uma nova oportunidade,
mudança na legislação, entre outros.
Na ótica do Scrum, por exemplo, itens podem ser substituídos,
removidos e incluídos, sem que isso represente falha no projeto,
pois foca-se mais na satisfação do cliente do que em cronogramas
e planejamento minuciosos. Existem também alguns desafios
como, por exemplo, transformar um cliente tradicional (que exige
prazo e custo definido) em um cliente Agile, mas observa-se
uma aceitação cada vez maior dos métodos ágeis. Por exemplo,
os clientes começam a aceitar que em alguns casos vale mais
a sinergia entre os participantes no projeto e a resposta rápida
às mudanças do que um clima de conflito entre as partes, no
qual se discutem fortemente prazo, custo e escopo, gerando
desgaste no relacionamento.
Para saber mais:
Mini Paper "Agile: você está preparado?" (pg. 53) Series Ano 7 Maio 2012 – n. 157
http://www.agilemanifesto.org
http://brasil.pmi.org/
105
Technology leadership council Brazil Technology leadership council Brazil
sangue, suor e weB: como a world wide weB foi criada
Marcelo Savio
O surgimento da World Wide Web há 25 anos é comumente
referenciado como um marco fundador de uma nova era, na qual
a Internet se expandiu para além dos muros das universidades
e centros de pesquisa onde estivera restrita por vinte anos.
Apesar da sua enorme importância e quase onipresença no
mundo atual, a Web possui uma história altamente contingencial,
com precariedades, tensões e bifurcações, comuns a muitos
outros fatos ou artefatos tecnológicos. E que só foi para a frente
graças à inspiração e, principalmente, à transpiração, de seus
abnegados construtores Tim Berners-Lee e Robert Cailliau,
ambos do CERN, um laboratório internacional de física localizado
em Genebra (Suíça).
O físico britânico Tim trabalhava lá como desenvolvedor de
software quando idealizou um sistema para obter informações
sobre as conexões entre todas as pessoas, equipes, equipamentos
e projetos em andamento no CERN. Em março de 1989, escreveu
uma proposta para diretoria, na qual solicitava recursos para a
construção de tal sistema. Não obteve retorno algum.
Foi quando entrou em cena Robert Cailliau, um engenheiro
de computação belga que Tim conhecera em sua primeira
passagem pelo CERN, para quem expôs suas ideias e agruras.
Robert, um entusiasta de tecnologia e veterano do Laboratório,
tornou-se em um aliado primordial, pois possuía uma extensa
rede de contatos e providencial capacidade de convencimento.
Reescreveu a proposta em termos mais atrativos e conseguiu
não só a aprovação por parte da mesma diretoria, mas também
dinheiro extra, máquinas novas, estudantes ajudantes e salas
para trabalhar. Tim pôde dar início à codificação das primeiras
versões dos principais elementos da Web: a linguagem HTML
(Hyper Text Markup Language), o protocolo HTTP (Hyper Text
Transfer Protocol), o servidor e o cliente Web (browser).
Em 1991, Robert e Tim conseguiram aprovação para
demonstrar a primeira versão da Web na Hypertext-91, uma
grande conferência internacional sobre hipertextos no EUA.
Na verdade, eles enviaram um paper que fora rejeitado “por
falta de mérito científico”, mas, com a persistência usual,
conseguiram convencer os organizadores do evento a
lhes deixarem realizar uma demonstração ao vivo. Partiram
entusiasmados para os EUA, mas mal sabiam eles que as
dificuldades estavam só começando.
Quando chegaram no local do evento descobriam que não havia
nenhuma maneira de se conectarem com a Internet. Robert
novamente entrou em ação. Conseguiu convencer o gerente
do hotel a puxar um par de fios de telefone e os soldaram ao
modem externo que haviam levado pois não havia conector
compatível. Para conseguirem conexão com a Internet, Robert
ligou para a universidade mais próxima e encontrou alguém
que lhes permitiu usar um serviço de acesso discado, de
onde foi possível conectar ao servidor Web remoto que estava
preparado no CERN. A demonstração foi um sucesso. Nos
anos seguintes dessa mesma conferência, todos os projetos
e estandes tinham algo a ver com a Web, que a partir de então
começou a ganhar o mundo.
Com a disseminação surgiram inúmeras sugestões de melhorias.
Chegara a hora de procurar o IETF, o fórum responsável pelos
padrões e especificações técnicas da Internet. Mas somente em
1994, após dois anos de intermináveis discussões, finalmente
conseguiram aprovar a primeira especificação da Web. E,
preocupados com o futuro, organizaram no CERN naquele
mesmo ano a I Conferência da WWW, na qual foi anunciado que
os códigos da Web seriam de domínio público e que um consórcio
de padronização específico para lidar com as questões da Web
(W3C) seria criado. A nascente tecnologia estava devidamente
encaminhada para assumir a relevância que de fato lhe coube
na história da Internet e da humanidade.
A criação da Web, por meio da combinação de hipertextos com
redes de computadores, nos mostrou que também é possível
criar uma tremenda inovação a partir de tecnologias consolidadas
e amplamente disponíveis. E que a jornada para se concretizar
uma inovação é sempre difícil e demanda não só competência
técnica mas muita determinação por parte de seus idealizadores.
Pense nisso quando abrir a próxima página Web no seu browser.
Para saber mais:
http://www.webat25.org
http://www.w3.org/People/Berners-Lee/Weaving/Overview.html
106
Technology leadership council Brazil
acesso direTo à memória: vulneraBilidade por projeTo?Felipe Cipriano
FireWire é uma interface serial de alta velocidade criada pela Apple
como substituta para o SCSI e de certa forma concorrente do USB.
Uma das vantagens da FireWire é a possibilidade de obter
a-cesso direto à memória, sem intervenção do sistema operacio-
nal. Isso permite transferências mais rápidas e diminui bastante
a latência entre o dispositivo e o computador.
Não é por acaso que a FireWire é bastante usada em edição
audiovisual. Nesses cenários que demandam menor atraso
possível (edição em tempo real, por exemplo), qualquer
interferência do sistema operacional seria bastante perceptível.
Mas o acesso direto à memória também tem seus perigos:
como a FireWire é uma interface hot-swap, um dispositivo
pode se conectar a um computador já iniciado e ter acesso
privilegiado à memória do sistema, que muito provavelmente
contém informações confidenciais. Assim, é possível conseguir
um dump – uma cópia de todo o conteúdo da memória – apenas
se conectando à porta FireWire de um computador já ligado,
mesmo que ele esteja travado por senha.
Um dos ataques comuns explorando o acesso direto à memória
na FireWire é obter esse dump de memória para então analisá-
lo em busca de informações.
Em alguns sistemas operacionais as senhas do usuário atual
não são criptografadas e ficam expostas na memória como texto
puro. Ainda que o sistema trate adequadamente as senhas, é
possível obter dados de documentos recentemente abertos ou
mesmo explorar falhas em programas de terceiros.
Mas o ataque que acho mais interessante é a manipulação direta
de códigos já carregados na memória para burlar a segurança
do sistema. Assim como o GameShark fazia com jogos de
videogame, esse tipo de ataque modifica as bibliotecas de
autenticação carregadas em memória para aceitar qualquer
senha. Esse tipo de ataque é bem discreto, já que não altera
arquivos do sistema e dificilmente alguém estranharia sua
senha (legítima) sendo aceita pelo sistema. Também é eficaz
mesmo em máquinas com criptografia de disco, uma vez que
as chaves já estão carregadas na memória para executar o
sistema operacional.
Além do cenário de uma máquina sendo explorada durante a
ausência do usuário, essa técnica pode ser usada para acessar
máquinas em suspensão, pois a memória é mantida ligada.
Quando a máquina retorna do estado de suspensão, as senhas
– como a da BIOS ou de programas de criptografia de disco – não
são necessárias para reativar o sistema. Esse ataque é bem
rápido por já conhecer os endereços de memória geralmente
usados para autenticação em cada sistema.
Como forma de evitar isso, a maioria dos sistemas operacionais
mais novos implementa o ASLR (Address Space Layout
Randomization), um método que usa endereços de memória
diferentes para cada vez que um programa é iniciado. Mas
essa proteção apenas diminui a velocidade do ataque, visto
que nesses sistemas é necessário obter um dump completo de
memória e então procurar pelos endereços de memória onde
o código de autenticação está carregado.
Uma das soluções mais comuns é bloquear o driver serial
da FireWire, o que já é suficiente para evitar ataques DMA
(Direct Memory Access). Outra solução é bloquear completa-
mente o uso das portas FireWire, seja removendo drivers ou
isolando a entrada.
No Mac OS X e no Linux é possível desativar apenas o DMA. No
caso do OS X, quando se usa criptografia de disco, o sistema
bloqueia automaticamente o DMA pela FireWire quando a tela
está bloqueada com senha.
E apesar da interface FireWire estar entrando em desuso, esse
ataque é possível em qualquer interface hotplug que tenha
acesso direto à memória, como por exemplo a Thunderbolt,
que é justamente tida como a substituta da FireWire.
Para saber mais:
https://www.os3.nl/_media/2011-2012/courses/rp1/p14_report.pdf
http://www.breaknenter.org/projects/inception/
107
Technology leadership council Brazil Technology leadership council Brazil
Big daTa e o nexo das forças
Alexandre Sales Lima
Nos últimos anos observamos uma mudança significativa no
mercado de TI encabeçada principalmente pela confluência das
seguintes forças: cloud, mídia social, mobilidade e informação
(Big Data). Esse último se encontra no epicentro da mudança,
pois seu desenvolvimento está intrinsicamente relacionado
com o crescimento e confluência das outras forças. Dado esse
cenário, uma pergunta se destaca: como navegar na onda de
oportunidades de Big Data no nexo dessas forças?
Se nós olharmos para cada uma delas podemos observar o
seguinte cenário:
Cloud: o aumento na adoção de soluções de computação em
nuvem vem provendo mais agilidade, escalabilidade, capacidade
e dinamismo ao mundo corporativo, permitindo a oferta de
novos e melhores serviços.
Mídia Social: extremamente difundida no contexto interpessoal
possui um conjunto de informações bastante diversificado (texto,
vídeo, relacionamentos e preferências). Ela se consolidou como
um canal de comunicação poderoso do ponto de vista social e
corporativo, dando uma voz ativa ao cidadão e ao consumidor.
Mobilidade: com um crescimento mundial acima de dois dígitos
a utilização de smartphones mudou em vários aspectos como
a sociedade se comporta e se correlaciona. A adoção de
tecnologias 3G e 4G introduzem um nível de capilaridade e
abrangência na coleta de informações nunca visto na história.
Por exemplo, mais de 60% dos usuários do Twitter acessam a
aplicação por meio de dispositivos móveis. Isso sem considerar
os dispositivos conectados que emitem sinais continuamente.
Informação: além do crescimento sistêmico natural das empresas,
temos hoje um aumento grande também de dados relacionados
com a colaboração humana, tais como, e-mails, páginas web,
documentos, conversas de mensagens instantâneas e tecnologia
de mídia social.
Se olharmos a dinâmica entre essas forças, podemos ver que
cada uma delas potencializa a outra numa espiral crescente
de capacidades e volume de dados. O Gartner chama essa
confluência de “Nexus of Forces”, o IDC de “The Third Platform”,
The Open Group de “Open Platform 3.0”. Independentemente
do nome podemos ver que Big Data está no centro dessa
mudança do cenário de negócios, ora como catalizador ora
como subproduto do processo de negócio. Mas como tirar
proveito disso?
O primeiro passo é entender o que é Big Data. O Forrester
o define como técnicas e tecnologias que tornam a
manipulação de dados em escala extrema acessível. O
segundo passo é entender o que podemos fazer com ele.
Big Data permite analisar mais informações, mais rápido e
mais profundamente, nos ajudando a entender o mundo de
uma maneira inconcebível há pouco tempo atrás. Possibilita
também encontrar valor e oportunidades de negócio onde
não era previamente concebido. Por exemplo, permite que
uma grande corporação interaja de forma individualizada
e personalizada em escala. Contudo o terceiro passo é o
mais importante. Como fazer isso?
Antes de tudo é preciso entender que Big Data por si só não é
importante. Se não colocarmos os dados dentro de um contexto
significativo, não vamos conseguir surfar nesse tsunami de dados.
Por fim, temos a tecnologia que viabiliza essa visão: Hadoop,
sistema distribuído para armazenar e recuperar informações,
distributed streams computing para processar dados em alta
velocidade e advanced analytics para identificar padrões e
tendências nesse mar de informações.
A convergência dessas forças está propiciando não só uma
mudança no cenário de TI, mas também está promovendo uma
mudança nos processos de negócio atuais. A combinação desses
componentes viabiliza a extração de valor dos dados e a geração
de vantagem competitiva para as empresas que souberem
utilizá-los. Para manter-se competitivo nesse novo mercado é
necessário que, não só as empresas, mas os profissionais de
TI dominem esses novos conceitos.
Para saber mais:
http://www.ibmbigdatahub.com/
http://www.gartner.com/technology/research/nexus-of-forces/
https://ibm.biz/BdDwS7
108
Technology leadership council Brazil
desmisTificando capacidade virTual, parTe iJorge L. Navarro
Em um sistema virtualizado, as máquinas virtuais compartilham a
máquina física (PM — do inglês physical machine). Essa máquina
física tem uma capacidade de processamento bem definida,
mas quanto dessa capacidade real vai para uma máquina virtual
(VM) específica?
Vamos chamar de capacidade virtual a capacidade realmente
utilizada por uma VM. Quais são os parâmetros que determinam
essa capacidade virtual? Hypervisors e tecnologias de
virtualização diferentes podem usar nomes diferentes, mas
em todos os casos, os conceitos por traz deles são os mesmos.
Capacidade de Máquina Física. A camada de virtualização distribui
a capacidade da PM entre suas VMs. Os recursos disponíveis
em uma PM é o limite absoluto da capacidade virtual: uma VM
hospedada não pode ser maior que a PM anfitriã e o processamento
extra, devido a virtualização em si (overhead) também deve ser
considerado. A capacidade é tipicamente medida em núcleos
de processador ou o agregado dos ciclos de CPU (MHz).
Capacidade Garantida. Essa é a capacidade que a VM terá
com certeza, quando demandada. Por exemplo, considere
uma capacidade garantida de 4 núcleos. Se a carga requerida
pela VM são 2 núcleos, a VM utilizará esses 2 núcleos. Mas
se a demanda aumentar para 5 núcleos, a VM terá 4 núcleos
garantidos e o núcleo faltante poderá ou não ser disponibilizado
dependendo de fatores adicionais. Isso também é conhecido
como nominal e reserva, e é medido em unidades de capacidade.
Atributo de uso exclusivo. Marcação indicando se a capacidade
garantida é separada para uso exclusivo da VM. Se não for, a
capacidade garantida não utilizada fica disponível para uso
pelo resto das VMs que compartilham a PM. Outro nome para
esse atributo é uso dedicado.
Limite/atributo de corte. Marcação que indica se a capacidade
garantida pode ser excedida ou não, mas a capacidade virtual
da VM pode ir além da capacidade garantida caso necessário.
Alguns hypervisors especificam um limite de capacidade não
atrelado a capacidade garantida.
Núcleos virtuais. Um conceito fundamental, mas por vezes
complicado, é o elo entre o mundo físico e o virtual. O sistema
operacional dentro da VM enxerga núcleos virtuais e entrega a
execução de processos para eles, e em seguida, o hypervisor
aloca núcleos físicos para os virtuais. O número de núcleos
virtuais pode limitar a capacidade virtual, isto é, a VM com
2 núcleos virtuais nunca poderá ter uma capacidade virtual
superior a 2 núcleos físicos.
Prioridade relativa. Esse parâmetro especifica prioridades
entre VMs que concorrem por capacidade. Essa competição
pode acontecer quando a soma das demandas é maior que a
capacidade da PM. Os nomes mais comuns desse conceito são
uncapped weight (peso sem corte) ou shares (compartilhamento).
A capacidade virtual, de fato, depende de todos os fatores acima.
Vamos considerar um cenário simples: 2 VMs, vermelha e azul,
compartilhando uma PM de 8 núcleos.
As VMs vermelha e azul são ambas definidas da mesma forma:
capacidade garantida de 4 núcleos, sem uso exclusivo, sem
corte/limite, 8 núcleos virtuais e prioridade relativa de 128.
O que aconteceria quando usuários da VM vermelha colocassem
uma demanda de 5 núcleos em sua VM, ao mesmo tempo
em que usuários da VM azul colocassem uma demanda de 5
núcleos em sua VM? De acordo com a parametrização acima,
é possível que a VM vermelha use 5 núcleos físicos pois ela
está sem corte/limite e tem pelo menos 5 núcleos virtuais. Mas
para poder ir além dos seus 4 núcleos garantidos deve haver
capacidade física disponível. E esse não é o caso, pois a VM
azul está usando seus 4 núcleos de capacidade garantida.
Então, a distribuição de capacidade final nas condições acima
é: ambas as VMs estão usando 4 núcleos, consequentemente
a PM está 100% ocupada (todos os 8 núcleos utilizados).
Pode-se concluir, da perspectiva de dimensão, que a PM foi
subdimensionada, não conseguindo atender a todas as demandas.
O que aconteceria se a demanda da VM azul decrescesse de
5 para 1 núcleo? Na segunda parte deste artigo abordaremos
isso considerando casos mais complexos e sutis.
Para saber mais:
https://www-304.ibm.com/connections/blogs/performance/entry/demystifying_virtual_capacity_part_i?lang=en_us
https://www-304.ibm.com/connections/blogs/performance/?lang=en_us
http://pubs.vmware.com/vsphere-55/index.jsp?topic=%2Fcom.vmware.vsphere.resmgmt.doc%2FGUID-98BD5A8A-260A-494F-BAAE-74781F5C4B87.html
http://www-03.ibm.com/systems/power/software/virtualization/resources.html
109
Technology leadership council Brazil Technology leadership council Brazil
desmisTificando capacidade virTual, parTe iiJorge L. Navarro
No Mini Paper anterior definimos o conceito de capacidade
virtual e identificamos os fatores genéricos de que ele depende:
Máquina Física (PM), capacidade garantida, atributo de uso
exclusivo, atributo de limite/corte e prioridade relativa.
Um cenário muito simples foi proposto: uma PM de 8 núcleos
com duas VMs, a vermelha e a azul, parametrizadas com a
seguinte configuração: capacidade garantida de 4 núcleos, sem
uso exclusivo, sem corte/limite, 8 núcleos virtuais e prioridade
relativa de 128.
Se a demanda da vermelha é de 5 núcleos e da azul é de 1
núcleo, qual será a distribuição da capacidade restante?
A azul receberá somente 1 núcleo, já que essa demanda é bem
menor que os 4 núcleos garantidos. Os 3 núcleos restantes não
são usados e, como ela não tem o atributo de uso exclusivo
ativado, eles são cedidos de volta como capacidade livre.
O uso da vermelha aumenta pra 5 núcleos, 4 deles vindos de sua
capacidade garantida e 1 núcleo adicional vindo da capacidade
livre. Nessa situação a PM está 75% ocupada (6 de 8 núcleos)
e não existem demandas não atendidas.
Uma regra geral é que se todas as VMs estiverem sem corte e
sem uso exclusivo e a soma de todas as demandas resultar em
um número menor que a capacidade da PM, então as demandas
de todas as VMs poderão ser atendidas.
Vamos considerar um caso com concorrência, ou seja, a
capacidade de PM não é suficiente para satisfazer a soma das
demandas das VMs, sendo todas elas sem corte e sem uso
exclusivo. Como a capacidade da PM, agora escassa, é distribuída?
Suponha a mesma PM de 8 núcleos, com 3 VMs (vermelha, azul e
verde) e a seguinte configuração: capacidade garantida de 3 núcleos
para vermelha e azul e 2 núcleos para a verde, sem uso exclusivo,
sem corte/limite, 8 núcleos virtuais e prioridade relativa de 128.
As demandas são: vermelha e azul com 4 núcleos e verde
com 1 núcleo. As demandas somam 9 núcleos, mais do que a
capacidade física (8 núcleos).
No primeiro grupo temos VMs com demandas menores ou
iguais às suas capacidades garantidas: elas são atendidas
e o resto da capacidade garantida é cedida, aumentando
a capacidade livre. A VM verde está nesse grupo: ela usa 1
núcleo e cede 1 núcleo.
No segundo grupo ficam as VMs com demandas maiores
que as suas capacidades garantidas: elas recebem suas
capacidades garantidas mais uma proporção da capacidade
livre, de acordo com suas prioridades relativas. A vermelha e
azul estão nesse grupo, ambas usam 3 núcleos garantidos
mais meio núcleo vindo do núcleo livre dividido em duas
partes iguais, já que ambas VMs tem a mesma prioridade
e portanto recebem a mesma fração. Nessa situação, a PM
está 100% utilizada e existem demandas não atendidas – a verme-
lha e a azul.
O que aconteceria se a VM verde fosse desligada ou sua demanda
caísse para zero? Ou se a VM azul tiver um limite/corte? Ou se
o número de núcleos virtuais para a VM vermelha for alterado
para 2? Ou se a demanda da verde subir para 4 núcleos?
Ou se a capacidade garantida da azul for de uso exclusivo?
E se... e se... e se...
Os cálculos para resolver um caso genérico, se você sabe
o que fazer e como fazer, são simples. Eu criei uma planilha
implementando esses cálculos, para ser usada como uma
ferramenta de ajuda: O desmistificador de capacidade virtual.
Ela vem com uma apresentação que ilustra o seu uso. Realize
experimentos com a ferramenta a fim de compreender e entender
totalmente capacidades virtuais.
Um último ponto: talvez eu devesse adicionar o seguinte
subtítulo: “… num mundo perfeito”. No mundo real existem
efeitos de segunda ordem – sobrecarga (overhead), ineficiências,
perdas de cache – que diminuem as capacidades virtuais que
obtemos. Esses efeitos pertencem ao universo de técnicos
avançados e gurus de performance, mas você deve estar
ciente de sua existência.
Para saber mais:
https://www-304.ibm.com/connections/blogs/performance/entry/demystifying_virtual_capacity_2nd_part_and_tool?lang=en_us
https://www-304.ibm.com/connections/blogs/performance/?lang=en_us
http://pubs.vmware.com/vsphere-55/index.jsp?topic=%2Fcom.vmware.vsphere.resmgmt.doc%2FGUID-98BD5A8A-260A-494F-BAAE-74781F5C4B87.html
http://www-03.ibm.com/systems/power/software/virtualization/resources.html
110
Technology leadership council Brazil
Como foi colocado na apresentação, estamos vivendo um
momento de transformações intensas. Políticas, econômicas
e tecnológicas. Transformações, por sua vez, impõem a neces-
sidade de reeducação/novos aprendizados.
Contemplando os cerca de 100 mini papers que compõem esse
livro, tem-se uma boa ideia dos temas que serão dominantes, e,
portanto, o que deverá compor a agenda daqueles que querem
se preparar para essas mudanças. Vale dizer que, ainda que
cada mini paper, intencionalmente, não tenha se aprofundado no
seu respectivo tema, permitiu ao leitor adquirir um conhecimento
inicial do assunto, indicando referências para mais informações.
Compilar esses documentos, no entanto, envolveu esforço
considerável. Desde o esforço despendido por cada autor para
desenvolver o assunto de uma forma concisa, porém interessante,
passando pelo esforço dos revisores, dos tradutores (os mini
papers foram escritos, em sua maioria, em português e depois
traduzidos para o inglês), dos revisores de tradução e de Argemiro
Lima e Maria Carolina Azevedo que coordenaram todo o processo,
incluindo a parte administrativa de obter recursos financeiros
e contratar fornecedores. Tudo isso feito na forma de trabalho
voluntário, além dos deveres e obrigações de cada um.
Tamanha mobilização remete às práticas que decorrem dos
valores da nossa companhia que visam justamente permitir
que a IBM possa operar as transformações que se espera. Por
exemplo, "unite to get it done" (demonstrada claramente, pela
mobilização que envolveu todo esse trabalho) e "show personal
interest" (sem a qual, estaríamos ainda com um livro incompleto).
Assim, gostaria de deixar registrado, em nome do TLC-BR
(Technology Leadership Council), o meu mais sincero apreço,
agradecimento e admiração por todos aqueles que tornaram
a intenção desse segundo livro numa realidade, publicado em
2 idiomas, na forma digital e impressa. Os autores, IBMistas e
ex-IBMistas, os revisores do Comitê Editorial, os tradutores da
comunidade técnica da IBM Brasil, os revisores de tradução
da IBM Academy of Technology e os líderes do Comitê Editorial.
Por fim, cabe lembrar que a produção dos mini papers (felizmente)
não para. E já são nove anos, quinzenalmente.
Adelson Lovatto
Adrian Hodges
Adrian Ray
Agostinho Villela
Alberto Eduardo Dias
Alberto Fernando Ramos Dias
Alex da Silva Malaquias
Alexandre Sales Lima
Alexis da Rocha Silva
Anderson Pedrassa
André Luiz Coelho da Silva
André Viana de Carvalho
Argemiro José de Lima
Argus Cavalcante
Ashish Mungi
Atlas de Carvalho Monteiro
Bianca Zadrozny
Boris Vitório Perez
Brendan Murray
Bruno da Costa Flach
Carlos Fachim
Carlos Henrique Cardonha
Carolina de Souza Joaquim
Caroline Pegado de Oliveira
Cesar Augusto Bento do Nascimento
Christian Prediger Appel
Claudio Keiji Iwata
Cleide Maria de Mello
Colleen Haffey
Daniela Kern Mainieri Trevisan
David Losnach
David R. Blea
Debbie A. Joy
Denis Vasconcelos
Denise Christiane Correia Gonçalves
Denise Luciene Veroneze
Diane Ross
Eduardo Furtado de Souza Oliveira
considerações finais e agradecimenTos
Agostinho de Arruda Villela, Presidente do TLC-BR
111
Technology leadership council Brazil Technology leadership council Brazil
Fabio Cossini
Felipe Grandolpho
Fernando Ewald
Fernando Padia Junior
Fernando Parreira
Flávia Aleixo Gomes da Silva
Flavia Cossenza Belo
Flavia Faez Muniz de Farias
Gabriel Pereira Borges
Gerson Itiro Hidaka
Gerson Makino
Gerson Mizuta Weiss
Glauco Marolla
Guilherme Correia Santos
Guilherme Galoppini Felix
Hema S Shah
Jeferson Moia
João Claúdio Salomão Borges
João Francisco Veiga Kiffer
João Marcos Leite
João N Oliveira
John Easton
John Fairhurst
José Alcino Brás
Juliana Costa de Carvalho
Katia Lucia da Silva
Kelsen Rodrigues
Leonardo Garcia Bruschi
Liane Schiavon
Louise de Sousa Rodrigues
Luiz Gustavo Nascimento
Marcel Benayon
Marcelo França
Marco Aurélio Cavalcante Ribeiro
Marco Aurélio Stelmar Netto
Marcos Antonio dos Santos Filho
Marcos Sylos
Marcos Vinícius Gialdi
Marcus Vinícios Brito Monteiro
Maria Carolina Feliciano de Oliveira e Azevedo
Miguel Vieira Ferreira
Nicole Sultanum
Odilon Goulart
Paolo Korikawa
Patrick R Varekamp
Patti Foley
Paulo Emanuel Critchi de Freitas
Paulo Huggler
Priscilla Campos Kuroda de Carvalho
Rafael Cassolato de Meneses
Reinaldo Tetsuo Katahira
Renan Camargo Pacheco
Rosane Goldstein G. Langnor
Rosely Oga Miyazaki
Ruth Gibrail Tannus
Sandipan Sengupta
Sandra Mara Gardim Rocha
Sandra Woodward
Sara Elo Dean
Sergio Varga
Shephil Philip
Shweta Gupta
Steve Heise
Tarik Maluf
Tatiana Brambila Corghi
Teresa Raquel Souza do Nascimento
Thiago Guimarães Moraes
Thiago Signorelli Luccas
Thomas Mailleux Sant'Ana
Tiago Moreira Candelária Bastos
Vandana Pandey
Vitor Hugo Lazari Pavanelli
Washington Cabral
Wellington Chaves