sexta-feira, 31 de agosto de 2018

Da matéria-prima ao produto: como transformar os dados em informação estratégica.

Quantas vezes você precisou analisar uma planilha e se deparou com informações duplicadas, dados iguais, mas registrados de forma diferente, erros de digitação, entre outros problemas? Certamente custou horas de trabalho a mais para elucidar essas questões e fez com que decisões importantes fossem tomadas com atraso.  É uma situação que pode acontecer com qualquer empresa atualmente e exemplifica a dificuldade de transformar os dados (a matéria-prima) em ações estratégicas (‘produto’ final de cada organização).
Desde a popularização e evolução da Internet não se fala em outra coisa. A produção de dados digitais cresce a nível exponencial. Relatório produzido pelo IDC e EMC aponta que, em 2020, a expectativa é ter 40 zetabytes de informação. Conteúdo suficiente para tomar as melhores decisões em uma empresa? Nem tanto. A mesma pesquisa indica que apenas 33% desses dados são “úteis”, ou seja, podem gerar algum valor. Resumindo: é preciso cada vez mais trabalhar na garimpagem dos dados e identificar quais elementos serão úteis para o crescimento do negócio.
Para isso, é necessário criar uma série de estratégias para garantir que os dados sejam úteis e gerem novos insights para a empresa. A primeira é estabelecer uma governança sobre eles, permitindo uma análise mais detalhada da qualidade, da política e das aplicações que estão armazenando essas informações. Depois, devem-se criar análises e visualizações para identificar padrões. Por fim, permitir que esses dados passem por algoritmos de inteligência artificial para detectar anomalias e padrões que os olhos humanos não conseguiriam encontrar.
Como se vê, é um processo multidisciplinar que deve envolver diferentes setores da organização, permitindo que arquitetos, engenheiros de dados, analistas e cientistas possam atuar em conjunto para encontrar esses padrões e criar aplicações inteligentes a partir das informações. Se essa estrutura não for possível, tente chegar ao menos a uma análise de inteligência de negócios (BI – Business Intelligence). Muitas empresas ainda não constituíram essa área, mas é melhor se apressarem. No futuro, haverá a integração do BI com tecnologias de Inteligência Artificial, permitindo não só análise do passado, como também a previsão de ações futuras.
É uma realidade que, pouco a pouco, começa a bater nos mais diferentes setores da economia nacional. Existem empresas maduras que já possuem uma visão mais holística sobre os dados. Instituições financeiras e de telecomunicações, que sempre lidaram com grandes volumes de informações, já estão na frente. Mas, cedo ou tarde, também aumentará em outros mercados, como varejo, energia, indústria e serviço público.
Em um mundo cada vez mais conectado e que qualquer ação realizada gera métricas e relatórios, é natural que todos os setores podem se beneficiar dos dados. Sua empresa pode criar um produto que não utilize ou gere uma informação por si só, como um brinquedo. Mas saiba que esses itens terão dados extremamente necessários, mesmo quando o item ou serviço em questão não sejam de natureza digital.
Fonte: Leonardo Dias, CDO e co-fundador da Semantix, empresa especializada em Big Data, Inteligência Artificial, Internet das Coisas e Análise de Dados para ProXXima

quarta-feira, 29 de agosto de 2018

Enquetes em redes sociais não têm valor científico e não valem como pesquisa eleitoral.


A propagação de resultados de enquetes feitas em redes sociais, mesmo que realizadas com uso de ferramentas de plataformas como o Facebook, contribui para a desinformação. Essas consultas não têm rigor científico e não substituem as pesquisas eleitorais registradas no Tribunal Superior Eleitoral (TSE).
Um exemplo recente foi compartilhado pela página do Facebook Mais Saúde Menos Corruptos, que publicou um infográfico apontando o candidato Jair Bolsonaro (PSL) com mais de 86,57% das intenções de voto, seguido pelo petista Luiz Inácio Lula da Silva (8,21%), pelo tucano Geraldo Alckmin (2,99%), pelo pedetista Ciro Gomes (1,49%) e pela candidatada da Rede, Marina Silva (0,75%). 
A fonte é uma página no Facebook, que saiu do ar nesta segunda (27), chamada de Instituto de Pesquisa Oficial do Face. O projeto Comprova, coalizão de 24 organizações de mídia brasileiras, dentre elas a Folha, que visa identificar, checar e combater rumores, manipulações e notícias falsas sobre as eleições de 2018, entrou em contato o proprietário da página, Sylvio Montenegro, que se apresenta como diretor do instituto —na rede social, o homem, que tem mais de 15 mil seguidores, se diz autônomo. 
Para chegar aos resultados apontados na publicação em questão, Montenegro utilizou uma metodologia sem qualquer base científica ou amostragem: dentre cinco candidatos apresentados, os internautas deveriam escrever o nome do favorito nos comentários. Segundo Montenegro, foram cerca de 500 votos. Ele afirma que os institutos de pesquisa precisam olhar para as redes sociais.
Para outro levantamento, também feito por Montenegro, desta vez somente entre Bolsonaro e Lula, foi utilizada a ferramenta de criação de enquetes do Facebook que só permite duas opções de respostas. Segundo ele, foram mais de 1 milhão de votos, que também colocaram Bolsonaro na frente. 
Os institutos de pesquisa fazem a chamada estratificação da amostra de eleitores. Ou seja, selecionam um grupo de pessoas que representa o eleitorado por sexo, faixa etária, escolaridade, renda e região em que mora. A montagem da amostra da pesquisa é feita com dados oficiais do IBGE e do TSE.
Segundo o TSE, a divulgação de pesquisa fraudulenta constitui crime, punível com detenção de seis meses a um ano e multa no valor de R$ 53.205,00 a R$ 106.410,00.
É possível saber, no site do TSE, se uma pesquisa foi registrada. Confira o passo a passo aqui

Fonte: Alvodireto

terça-feira, 28 de agosto de 2018

Transformação digital aumenta oportunidades para as empresas.

   
Levantamento da DocuSign indica que 83% dos executivos priorizam fechar negócios com     companhias aptas a fazer transações por meio eletrônico.

Lembra-se do tempo em que só dava para pedir pizza pelo telefone? Comum até poucos anos atrás, a situação se tornou cena do passado graças a empresas como o iFood. Entretanto, o aplicativo de delivery que ajudou a modernizar o mercado de entregas no Brasil exigia que os donos de restaurantes interessados em fazer parte de sua base assinassem contratos em papel até 2016. Naquele ano, o procedimento pouco prático levou a companhia a procurar a DocuSign, multinacional especializada em transações digitais, para adotar um sistema de assinatura digital. Doze meses após a decisão, o iFood viu o número de estabelecimentos aumentar 237% e o faturamento anual saltar de 171 milhões de reais para 490 milhões de reais graças à mudança. O caso em questão e o sucesso do app mostram como a transformação digital pode ser decisiva para o êxito ou fracasso de um negócio com grande potencial.
Ajudar corporações a fazer a transição da era do papel para o mundo eletrônico é a especialidade da DocuSign. Pioneira no desenvolvimento da assinatura eletrônica, a companhia permite que mais de 400 000 empresas e 200 milhões de usuários em 188 países enviem, assinem, gerenciem documentos e coletem pagamentos – totalmente por meios eletrônicos e tecnológicos. A solução auxilia na preparação de contratos, registro de assinaturas digitais ou eletrônicas (com certificados privados ou ICP-Brasil), validação e gerenciamento de documentos.
A companhia também dispõe de integrações nativas com sistemas de gigantes do mercado, como Google, Microsoft, SAP, SalesForce, entre outros grandes players. Isso porque as soluções da DocuSign são seguras, juridicamente válidas, fáceis de usar e podem ser acessadas via dispositivos móveis pelos executivos de casa, do escritório ou durante viagens, o que aumenta a eficiência operacional de quem as adota e reduz o custo com movimentações do tipo.
Um levantamento recente ratifica bem esse diagnóstico. Batizado de Transformação Digital no Brasil: O que Seus Clientes Esperam, o estudo feito pela DocuSign identificou que 83% dos executivos priorizam parceiros e clientes que realizam operações eletrônicas em seus negócios. Mais de 1 200 profissionais das cinco regiões do país foram entrevistados para a análise, que ainda descobriu outros números interessantes.
Nas entrevistas, 97% dos participantes informaram que, numa negociação, esperam que o outro lado ofereça meios não físicos para aquisição de seus produtos. Oito em cada dez afirmaram que essa opção melhora a experiência de quem faz a compra, e 82% relataram que já foram inquiridos por clientes sobre a possibilidade de assinar um contrato por canal digital, por exemplo.
Não por acaso, quase 100% dos entrevistados disseram que a tecnologia é uma prioridade nas organizações. “Para as empresas, trabalhar em conjunto com quem já adota práticas mais modernas é bom, porque transforma o esforço individual em movimento coletivo”, afirma Alberto Luiz Albertin, coordenador da linha de TI do mestrado em competitividade da Fundação Getulio Vargas.
Na opinião do pesquisador, o esperado é que cada vez mais empresas trilhem o mesmo caminho já percorrido pelo iFood. “Conforme aumenta o número de companhias no mundo digital, estar dentro dele se torna algo mais valorizado, justamente pela maior oferta de oportunidades que esse ambiente passa a oferecer”, explica o professor.
Por isso, cada vez mais, empresas têm adotado a mesma estratégia do iFood. Exemplo disso é o Banco Inter, que também deu adeus à burocracia e, consequentemente, melhorou seus processos. Após adquirir os serviços de assinatura eletrônica da DocuSign em setembro de 2016, a instituição reduziu de 14 dias para oito o período médio necessário para contratação de seus pacotes de crédito consignado e de 18% para 8% a taxa de desistência entre os clientes durante a aquisição.
É certo que o processo ainda envolve desafios, como entender a melhor forma de usar a tecnologia a favor do negócio e encontrar a melhor métrica para analisar seu impacto na iniciativa. “Ninguém duvida que ela se torne cada vez mais expressiva nos próximos anos”, resume Albertin.
Para especialistas, a tendência da transformação digital é de consolidação. Definitivamente um caminho sem volta, e para ganhar competitividade as empresas precisam se adequar e implementar a assinatura eletrônica, transformando suas transações em 100% digitais.
Fonte: Exame




segunda-feira, 27 de agosto de 2018

Da matéria-prima ao produto: como transformar os dados em informação estratégica.

Quantas vezes você precisou analisar uma planilha e se deparou com informações duplicadas, dados iguais, mas registrados de forma diferente, erros de digitação, entre outros problemas? Certamente custou horas de trabalho a mais para elucidar essas questões e fez com que decisões importantes fossem tomadas com atraso.  É uma situação que pode acontecer com qualquer empresa atualmente e exemplifica a dificuldade de transformar os dados (a matéria-prima) em ações estratégicas (‘produto’ final de cada organização). 
Desde a popularização e evolução da Internet não se fala em outra coisa. A produção de dados digitais cresce a nível exponencial. Relatório produzido pelo IDC e EMC aponta que, em 2020, a expectativa é ter 40 zetabytes de informação. Conteúdo suficiente para tomar as melhores decisões em uma empresa? Nem tanto. A mesma pesquisa indica que apenas 33% desses dados são “úteis”, ou seja, podem gerar algum valor. Resumindo: é preciso cada vez mais trabalhar na garimpagem dos dados e identificar quais elementos serão úteis para o crescimento do negócio.
Para isso, é necessário criar uma série de estratégias para garantir que os dados sejam úteis e gerem novos insights para a empresa. A primeira é estabelecer uma governança sobre eles, permitindo uma análise mais detalhada da qualidade, da política e das aplicações que estão armazenando essas informações. Depois, devem-se criar análises e visualizações para identificar padrões. Por fim, permitir que esses dados passem por algoritmos de inteligência artificial para detectar anomalias e padrões que os olhos humanos não conseguiriam encontrar.
Como se vê, é um processo multidisciplinar que deve envolver diferentes setores da organização, permitindo que arquitetos, engenheiros de dados, analistas e cientistas possam atuar em conjunto para encontrar esses padrões e criar aplicações inteligentes a partir das informações. Se essa estrutura não for possível, tente chegar ao menos a uma análise de inteligência de negócios (BI – Business Intelligence). Muitas empresas ainda não constituíram essa área, mas é melhor se apressarem. No futuro, haverá a integração do BI com tecnologias de Inteligência Artificial, permitindo não só análise do passado, como também a previsão de ações futuras.
É uma realidade que, pouco a pouco, começa a bater nos mais diferentes setores da economia nacional. Existem empresas maduras que já possuem uma visão mais holística sobre os dados. Instituições financeiras e de telecomunicações, que sempre lidaram com grandes volumes de informações, já estão na frente. Mas, cedo ou tarde, também aumentará em outros mercados, como varejo, energia, indústria e serviço público.
Em um mundo cada vez mais conectado e que qualquer ação realizada gera métricas e relatórios, é natural que todos os setores podem se beneficiar dos dados. Sua empresa pode criar um produto que não utilize ou gere uma informação por si só, como um brinquedo. Mas saiba que esses itens terão aos dados se tornaram extremamente necessários, mesmo quando o item ou serviço em questão não é necessariamente eletrônico.
Fonte: Leonardo Dias, CDO e co-fundador da Semantix, empresa especializada em Big Data, Inteligência Artificial, Internet das Coisas e Análise de Dados para PróXXima

sexta-feira, 24 de agosto de 2018

A Inteligência Artificial está revolucionando a produtividade.

Traz melhoria dos fluxos de trabalho, aceleração da pesquisa e aprimorando da colaboração, entre outras vantagens.


O temor é o de que a Inteligência Artificial venha a ser a próxima grande exterminadora de muitos empregos, porém muitas das ferramentas e serviços de IA disponíveis hoje se concentram em melhorar a produtividade dos negócios em vez de substituir funcionários e provocar o fechamento de vagas.
Na verdade, quase dois terços dos funcionários ouvidos em um estudo recente conduzido pela ABBYY, no Reino Unido, disseram que ficariam felizes em delegar para máquinas tarefas como anotações de reuniões e a revisão de documentos.
A IA pode ser muito útil em tarefas corriqueiras, como localizar documentos por mio do uso de imagens ou saber o melhor momento para enviar um e-mail. 
Vejamos...
Pesquisas mais inteligentes
Smartphones e serviços de armazenamento na nuvem já usam o reconhecimento de imagens para marcar fotos automaticamente. Agora os serviços comerciais de armazenamento em nuvem, como o SharePoint Online e o OneDrive for Business, estão começando a fazer o mesmo. “Temos muita inteligência nas bibliotecas de documentos do SharePoint”, afirma Dan Holme, diretor de produto na Microsoft. “Quando você faz upload de uma imagem, a IA descobre a geolocalização, reconhece o objeto e extrai o texto.” Se você digitalizar ou fotografar um recibo de um restaurante, pode extrair as informações para o relatório de despesas diretamente da biblioteca de documentos, por exemplo.

O próximo passo, com previsão de lançamento para ainda este ano, será facilitar o uso dessas informações nos processos de negócios usando o Flow,  da Microsoft, que ajuda a criar fluxos de trabalho. Será possível, por exemplo, que um funcionário da seguradora tire uma foto do sinistro e a envie automaticamente para a equipe de seguros de veículos, caso a foto mostre um carro ou para a equipe de seguros da residência, caso ela mostre uma casa. Também será possível ensinar ao SharePoint a reconhecer o novo logotipo da empresa e usar esse aprendizado para sinalizae todos os documentos que usam o logotipo antigo.
No seu dispositivo móvel, a versão mais recente do Adobe Scan usa o reconhecimento de imagens para identificar quando você está fotografando um cartão de visita. Em seguida, executa o OCR no texto do cartão e cria um novo contato com base nas informações que extrai do cartão. Isso inclui identificar um endereço físico, um endereço de e-mail e por aí vai... Ele também pode ajustar automaticamente imagens digitalizadas anteriormente para limpar sombras, aprimorar o texto e corrigir a perspectiva para que o texto possa ser reconhecido com mais precisão. O recurso Office Lens no OneNote e no OneDrive, da Microsoft,  executa correções semelhantes, a cada foto feita.
Reconhecer e marcar documentos automaticamente para facilitar a localização de contratos, faturas e outros tipos comuns de documentos não é tão avançado quanto o reconhecimento de imagens, mas a Box promete isso com sua plataforma Box Skills (que ainda está em versão beta e inclui imagem OCR e transcrição de áudio). O serviço de análise de texto para contratos da ABBYY já usa IA para detectar contratos e identificar as funções de compra e venda, tornando mais fácil ver quais compromissos você precisa cumprir (como notificações de violação de dados ou prazos de entrega), avaliar riscos ou verificar se as cláusulas contratuais são consistentes e atender às diretrizes de conformidade. Ele também deve trabalhar com outros documentos comerciais semi-estruturados, diz Paul Goodenough, diretor da ABBYY. A ferramenta também destaca informações importantes, “o que permite que os usuários leiam documentos mais rápido, identificando seções, cláusulas e fatos para os processos de negócios”, diz ele.
Mais amplamente, o Acrobat Document Cloud pode identificar automaticamente listas, tabelas, campos de formulário e figuras em PDFs, para simplificar a pesquisa e o preenchimento de formulários. 
A Microsoft também trabalha no uso de Machine Learning  para identificar automaticamente os documentos que devem ser marcados como confidenciais em uma versão futura do Serviço de Proteção de Informações do Azure.
O aplicativo móvel do SharePoint e o portal do Office.com usam a IA para sugerir documentos recomendados de colegas que você talvez precise conhecer, assim como o recurso "Acesso rápido" do G Suite Drive. 
Colocar sugestões sobre onde você pode encontrar arquivos relacionados aos temas com os quais você está lidando é mais útil do que um serviço separado como o Delve. Holme chama isso de “experiência de busca inteligente personalizada". O objetivo é que, ao clicar na caixa de pesquisa, você veja recomendações de aplicativos, arquivos e novos sites  que provavelmente serão úteis para você, para que você possa encontrar o que está procurando sem precisar digitar nada. ”
Documentos mais inteligentes
Os recursos da IA também podem facilitar a criação de documentos. O recurso Editor em versões recentes do Microsoft Word 2016 e a nova verificação gramatical do Google Docs usam Machine Learning para sugerir quando uma palavra com ortografia correta não é a mais correta a ser usada. 

Os recursos do QuickStarter e do PowerPoint Designer podem seguir seu esboço, sugerir quais layouts de slide usar, preenchê-los com imagens da Wikipedia e sugerir vários designs para texto e listas com marcadores. O Excel agora inclui o recurso Insights visto pela primeira vez no Power BI, que cria automaticamente visualizações de valores discrepantes em seu conjunto de dados para facilitar a identificação de quando os números são excepcionalmente bons ou ruins.
O Power BI sempre permitiu que você fizesse mais perguntas em linguagem natural, como "Quem foi meu melhor cliente no último trimestre" ou "Qual região é mais lucrativa neste ano". Agora, o Tableau se integra aos modelos de dados automatizados criados por computador da DataRobot para gerar análises visuais semelhantes para identificar padrões e correlações.
O reconhecimento de texto manuscrito está ficando mais útil agora que os quadros interativos são mais comuns. Por exemplo, o aplicativo Whiteboard, da Microsoft - que é executado no Surface Hub ou em qualquer tela sensível ao toque de um computador - usa o Windows Smart Ink AI para limpar formas e tabelas e reconhecer listas, números de telefone e datas. (Outro aplicativo, Ink to Code , converte esboços de interfaces de usuário em projetos do Visual Studio.)
O Whiteboard também pode pegar o desenho e usá-lo para pesquisar no Bing Images. O quadro interativo do Google, o Jamboard, possui uma ferramenta de desenho semelhante, chamada AutoDraw, que procura imagens que correspondam ao que você está desenhando. Isso significa que mesmo que você não seja um artista, você pode rabiscar uma imagem e trocá-la rapidamente por algo mais imediatamente reconhecível.
Enquanto isso, o reconhecimento de voz com IA está apenas começando a se tornar útil. Ditar uma pesquisa curta ao microfone de alta qualidade em seu smartphone, que está ouvindo sua voz para criar seu perfil de fala, pode ser razoavelmente preciso. Há uma infinidade de serviços de transcrição, como TrintSimon SaysSpeechmaticsCallnoteOtter e outros que tentarão usar a Inteligência Artificial, geralmente baseada em serviços de reconhecimento de fala na nuvem, da Microsoft, Google e IBM, para transcrever gravações e vídeos. Quase todos tiram você do seu fluxo de trabalho normal porque você precisa revisar a transcrição. A qualidade do áudio, os sotaques, múltiplas vozes, ruído de fundo e vocabulário específico do seu setor afetarão a precisão das transcrições. Em geral, eles são mais úteis para tornar o áudio pesquisável do que para transformá-lo em uma versão escrita perfeita.
O suplemento do Presentation Translator para PowerPoint (que produz legendas em tempo real e traduções de uma apresentação) tem a vantagem de que muitos dos termos estarão em slides ou notas de slide, para que possa executar o reconhecimento de fala personalizado. Isso leva cerca de 5 minutos para treinar, então ligue-o enquanto pratica a apresentação com antecedência; também é mais preciso se você usar um microfone headset.
O serviço de vídeo Azure Stream, da Microsoft, se integra ao SharePoint, o que significa que tem muito conteúdo para dicionários personalizados para melhorar o reconhecimento de voz em vídeos, além de detalhes de quem estava em uma reunião ou apresentação para ativar a detecção de rosto. Depois que o texto de um vídeo é criado, você pode ir para o ponto relevante em um vídeo procurando palavras-chave ou escolhendo o nome do apresentador no SharePoint.
Para afinar o seu negócio
Muitas dessas ferramentas de produtividade individual não exigem trabalho significativo da equipe de TI. No entanto, à medida que a classificação automática de documentos se torna amplamente disponível, convém observar como integrá-la às ferramentas de gerenciamento de direitos e vazamento de dados que você já usa. Porém, lidar com a produtividade da equipe pode exigir mais processos formais.

Uma pesquisa recente mostra que os gerentes que se preparam para a próxima semana enviando e-mails nas noites de domingo (com a intenção de serem lidos na segunda-feira de manhã) freqüentemente treinam sua equipe para checar e-mails fora do horário também. Os trabalhadores que precisam se preocupar em ficar por dentro das mensagens em todas as horas têm maior probabilidade de reclamar de estresse, perda de foco ou até mesmo de esgotamento, e em algumas jurisdições o e-mail do trabalho conta como horas extras. Enviar e-mails durante as reuniões é outro mau hábito que os funcionários aprendem com os gerentes.
Os recursos do MyAnalytics e do Workplace Analytics no Office 365 usam Machine Learning para analisar padrões de email e gerar relatórios semanais mostrando quanto tempo eles gastaram em reuniões, fazendo e-mails ou trabalhando fora do horário, bem como quantos desses e-mails foram lidos. Os gerentes podem ver as visualizações agregadas, como quanto tempo os gerentes gastam com seus relatórios, se as pessoas usam rotineiramente o e-mail após o horário comercial ou quais são os padrões de trabalho das equipes mais bem-sucedidas.
Você também receberá dicas imediatas sobre como você trabalha. Se disparar uma mensagem tarde da noite para a mesma pessoa várias vezes, o Outlook exibirá uma dica de ferramenta sugerindo que você agende a correspondência para enviar de manhã.
Da mesma forma, os novos painéis de análise preditiva no serviço de gerenciamento de projetos do Hive usam Machine Learning  para mostrar quais equipes têm muitas tarefas e quantidade de funcionários insuficiente para realizá-las e como as equipes estão estimando os tempos do projeto. Enfrentar os problemas que essas ferramentas tornam visíveis é tarefa para as pessoas.

Fonte: CIO

    quinta-feira, 23 de agosto de 2018

    Grandes empresas estão sendo sinceras sobre o rastreamento dos clientes?


    Há boas e más razões para rastrear os movimentos das pessoas, mas a melhor maneira de gritar para os usuários que você os está espionando é mentir ou não revelar o que vem sendo feito. Desenvolvedores corporativos, se você não é culpado de má conduta, por que vem tentando tanto esconder isso?
    A questão vem à mente depois que duas notícias, não relacionadas,  despertaram a atenção para um descolamento do discurso e da prática das empresas de tecnologia.
    A Associated Press informou que o Google continua rastreando consumidores mesmo depois desses consumidores ativarem a opção de privacidade que supostamente bloqueia o rastreamento. Apenas alguns dias depois, o Google mudou discretamente a página de ajuda, trocando os dizeres "com o Histórico de Localização desativado, os lugares que você está não são mais armazenados" por "esta configuração não afeta outros serviços de localização no seu dispositivo" e "alguns dados de localização podem ser salvo como parte de sua atividade em outros serviços, como Pesquisa e Mapas. ”
    Pouco depois, o jornal The New York Times  revelou que alguns grandes bancos estão usando análises comportamentais para identificar clientes. Nesse caso, a acusação não é a de estarem dizendo uma coisa e fazendo outras, mas a de estarem deliberadamente deixando de informar algo que muitos clientes não aconcordariam. A melhor abordagem teria sido declarar antecipadamente que a análise comportamental está sendo feita, ainda que apenas para autenticação, e prometer nunca usá-la para outra coisa que não seja a finalidade declarada. O problema aqui é que os bancos não querem restringir a forma como usam esses dados, e é por isso que optam por permanecer em silêncio.
    Do artigo do Times : "Quando você está navegando em um site e o cursor do mouse desaparece, pode ser uma falha de computador - ou pode ser um teste deliberado para descobrir quem você é. A maneira como você pressiona, rola e digita algo na tela do telefone ou no teclado podem ser tão exclusivos quanto suas impressões digitais ou características faciais. Alguns sistemas de segurança avançados já usam a análise desses quesitos para evitar ataques automatizados e transações suspeitas, mas outros estão indo ainda mais longe. "
    Vamos começar com o incidente do Google. As principais perguntas são: Quem aprovou essa página de ajuda inicial e o que eles sabiam na ocasião? Na pior das hipóteses, alguém escreveu  e alguém aprovou os dizeres "os lugares que você vai não estão mais armazenados" sabendo muito bem que isso não era verdade - algo conhecido nos círculos de marketing como "mentir".  Na melhor, a página foi escrita e aprovada por pessoas que não entendiam como os sistemas do Google funcionam.
    O Google não explicou sua conduta. Simplesmente mudou a página de ajuda,  sem maiores comentários. Embora ambos os cenários sejam plausíveis, estou mais inclinado a acreditar que qualquer pessoa envolvida na elaboração de uma página de ajuda do Google entende bem os sistemas e, portanto, sabia que o que estava escrevendo era falso.
    A situação do banco é menos explícita. Pelo menos os bancos, até onde posso dizer, não disseram que não estavam rastreando pessoas. Eles simplesmente não disseram nada a respeito. Mas os desenvolvedores de aplicativos bancários precisam lembrar que os bancos estão em uma posição muito mais precária do que o Google e precisam, pelo menos, fingir ser confiáveis ​​de uma forma muito mais pública.
    Por quê? O Google ainda é o mecanismo de pesquisa mais eficaz e abrangente do planeta. Eu adoraria poder dizer que o DuckDuckGo ou outros mecanismos orientados para a privacidade são tão bons ou melhores, mas com base em testes diários, o Google ainda está muito à frente. Bing, Yahoo e outros há muito tempo perderam a batalha de busca para o Google.
    Isso significa que um usuário irritado do Google não pode sair do Google sem perder alguma funcionalidade de pesquisa séria. E em um telefone Android, a confiança é ainda mais profunda e integrada. Mas bancos? No cado deles, clientes insatisfeitos podem facilmente pegar seu dinheiro e seus dados e mudar para o banco rival do outro lado da rua, e provavelmente não sofrerão interrupções ou degradação de serviços.
    Em segundo lugar, a confiança é um fator muito maior para um consumidor que escolhe um banco do que o mesmo consumidor que escolhe um serviço de busca ou um serviço de mapa móvel. Os consumidores estão literalmente entregando uma grande parte de seu dinheiro para esse banco. Isso envolve muita confiança. Por que arriscar tudo isso apenas para que o banco tenha a opção de usar posteriormente identidades de clientes para vários esquemas de marketing? Se esse esforço é tão benigno, por que não compartilhá-lo com os clientes e deixar que os consumidores considerem isso em suas decisões sobre quais bancos usar?
    Até agora, esta coluna se concentrou na necessidade das grandes empresas serem honestas para conquistarem a confiança dos usuários e clientes. Há outros motivos também. Em especial, a observância às regras das novas legislações sobre proteção de dados pessoais.  A hora de corrigir as coisas é agora!

    Fonte: CIO

    terça-feira, 21 de agosto de 2018

    EM DEFESA DAS PESQUISAS BRASILEIRAS

    Nossos levantamentos de intenção de voto estão entre os melhores do mundo e serão mais importantes do que nunca em 2018.


    "Eu estou aqui para confundir, eu não estou aqui para explicar”, bordão de Chacrinha, bem que podia ser o lema de todo o candidato. Claro que isso implicaria uma honestidade insuspeita de qualquer postulante a cargo público, mas se o eleitor adotar a sabedoria do Velho Guerreiro como evangelho eleitoral, ficará um pouco menos confuso.
    Nenhuma ferramenta é tão usada pelos políticos para confundir quanto as pesquisas de intenção de voto. Acontece que a eleição de 2018 é a mais imprevisível de nossa breve democracia. Justamente por isso, as pesquisas de opinião pública serão ainda mais importantes neste ano. Com tanta gente sem fé na política e indecisa quanto ao próprio voto, é possível que a margem de erro dos institutos nesta eleição seja maior que o de costume. Ainda assim, elas serão nossa melhor ferramenta para entender o que se passa na cabeça de quem vai às urnas em outubro.
    A campanha mal começou e os candidatos já entoam a ladainha. No debate da semana passada, na Band, Cabo Daciolo queixou-se de não ter sido incluído em qualquer pesquisa até agora. Convenientemente, ele não mencionou que foi ele mesmo a proibir seu partido de divulgar sua pré-candidatura porque estava de jejum religioso. Geraldo Alckmin, empacado em percentual de intenções de voto com um único dígito, prega em público que pesquisa antes do início da campanha é palavra vazia – enquanto, em privado, reza para que isso seja verdade. E os seguidores de Jair Bolsonaro alardeiam apenas os levantamentos de intenção de voto que lhes convém: se o ex-capitão sobe, a pesquisa é boa nova; se cai, é heresia.
    Adotar os institutos de pesquisa como Judas é discurso velho na política brasileira. No dia seguinte às eleições, jornalistas e candidatos, por maldade ou ignorância, apregoam que as pesquisas teriam errado mais uma vez. A suposta evidência para isso seria apenas a diferença – frequentemente mínima – entre os percentuais nos levantamentos de véspera e os votos apurados.
    Vistos em contexto, porém, os dados revelam o oposto. As pesquisas brasileiras talvez sejam as melhores do mundo.
    Em análise que fiz para o Estadão Dados, núcleo de jornalismo de dados de O Estado de S. Paulo, em 2014, descobri que, entre 2002 e 2010, as pesquisas de véspera de eleição presidencial no Brasil diferiram apenas cerca de 2 pontos percentuais do resultado oficial. O cientista político Marcus Figueiredo já revelara, em artigo na Folha de S.Paulo em 2002, que até então a média de erro dos institutos brasileiros era aproximadamente de 1 ponto percentual.
    Estatisticamente, isso não é nada. Como comparação, nos Estados Unidos, a diferença média entre as pesquisas e o resultado das eleições presidenciais gira em torno de 4 pontos percentuais, de acordo com o estatístico americano Nate Silver, editor do site FiveThirtyEight. No Reino Unido, o erro é, na média, de cerca de 7 pontos percentuais. Na verdade, as pesquisas no Brasil têm resultado melhor que em qualquer outro país, de acordo com uma comparação de 2017 dos cientistas políticos Will Jennings e Christopher Wlezien.
    Há várias explicações para isso. Os institutos mais tradicionais, como Ibope e Datafolha, usam o método mais confiável de todos para conduzir suas entrevistas: cara a cara. Nele, os pesquisadores vão até a casa do eleitor ou o abordam na rua para questioná-lo. Nos Estados Unidos, quase todas as pesquisas são feitas por telefone. Naturalmente, muito mais gente se recusa a responder um interrogatório telefônico do que um feito pessoalmente. A taxa de recusa – aqueles eleitores que declinam responder o questionário – passa dos 90% nos levantamentos telefônicos. Nas pesquisas cara a cara, essa taxa gira em torno dos 20%. Por isso mesmo, as pesquisas feitas pessoalmente são muito mais representativas da população.
    Entre acadêmicos, já foi moda questionar a forma como os entrevistados dos institutos brasileiros são selecionados. É que, na teoria estatística, quanto mais aleatório for o processo de amostragem, mais representativa essa amostra será. A ideia é fácil de entender: quanto mais o pesquisador interfere deliberadamente no processo de escolha de quem será ouvido, maiores as chances de ele incluir suas opiniões e preconceitos no resultado final.
    Só que fazer uma pesquisa de opinião pública de modo puramente randômico é praticamente impossível. Imagine sair por todo o Brasil, ao léu, entrevistando pessoas aleatoriamente. Seria necessária uma amostragem gigantesca para garantir que, de fato, ela fosse representativa da população brasileira. E quem decidiria onde ir e quem entrevistar, de qualquer forma?
    Em vez disso, os principais institutos brasileiros adotam um método muito mais razoável: eles olham para os dados do IBGE e, a partir deles, dividem o país com base em características demográficas – idade, gênero, religião, região do país, renda, escolaridade etc. Assim, eles sabem exatamente onde ir e quem ouvir. A despeito das críticas de alguns acadêmicos, essa metodologia já é aceita por quase todos os estatísticos. Mesmo a pesquisa de opinião pública mais renomada em todo o mundo, a American National Election Studies, da Universidade de Michigan, divide a população em estratos para determinar sua amostragem.
    As pesquisas brasileiras têm ainda uma última vantagem em comparação às americanas: o número de entrevistados. No Brasil, ele gira em torno de 2 mil pessoas. Nos Estados Unidos, a maioria ouve somente 800 eleitores e, por isso, a margem de erro é maior.
    O preço de tanto rigor é que as nossas pesquisas são muito caras. Por isso mesmo, temos relativamente poucas delas. No equilíbrio entre quantidade e precisão, os institutos brasileiros tendem a preferir a precisão, enquanto os americanos preferem fazer mais levantamentos, pagando menos por eles.
    Mas, se nossos institutos são tão bons, por que a confusão? Ao contrário do que tentam nos convencer os candidatos, pesquisa de intenção de voto não é profecia. A intenção não é prever resultado. Em vez disso, o objetivo é muito mais modesto: os levantamentos simplesmente nos ajudam a entender como o público reage à campanha.
    Por isso, eleitor, desconfie da próxima vez em que um candidato tentar te ensurdecer com a ladainha acerca das pesquisas de intenção de voto. As chances é que ele esteja tentando te confundir, em vez de explicar.

    Fonte: Lucas de Abreu Maia, jornalista e doutorando em ciência política na Universidade da Califórnia, San Diego para a Revista Piauí. 

    segunda-feira, 20 de agosto de 2018

    Os renegados do Vale do Silício que agora querem deter as tecnológicas.

    Organização criada por ex-funcionários do Google e do Facebook defende mudanças para acabar com os excessos das grandes empresas do setor e evitar o comportamento viciado do usuário.


    Eles eram funcionários de empresas como GoogleFacebook ou Twitter e ocupavam cargos importantes. Um deles chegou a ser consultor pessoal de Mark Zuckerberg. Mas perceberam o prejuízo que o mau uso da tecnologia está causando à humanidade e como as plataformas são estrategicamente projetadas para gerar dependência. Em fevereiro deste ano, oito ex-funcionários das mais poderosas empresas tecnológicas do Vale do Silício lançaram o Center for Humane Technology em San Francisco, uma organização sem fins lucrativos que tem como objetivo conscientizar os usuários sobre os efeitos nocivos da tecnologia em sua saúde e pressionar o Governo dos EUA a endurecer as regulamentações do setor. Sua prioridade é introduzir a ética no desenvolvimento da tecnologia.

    “A tecnologia não é neutra e as consequências disso são óbvias. Ela está mudando a nossa forma de conversar, a nossa maneira de pensar e causando estragos em nosso sistema democrático”, disse Tristan Harris, um dos fundadores do projeto, durante uma palestra TED. Harris deixou o cargo de designerético no Google em 2016, onde estudava meios de tornar os produtos menos intrusivos na vida dos usuários, e lançou a plataforma Time Well Spent (tempo bem gasto), agora integrada ao novo projeto. “Com os alertas, o celular diz no que você precisa focar a atenção a cada momento. Precisamos entender que eles podem programar nossas mentes com pequenos pensamentos [na forma de alertas na tela do celular] que não escolhemos”, acrescenta Harris especialista em técnicas de persuasão pela Universidade de Stanford.

     Seu grande aliado no lançamento do centro foi Roger McNamee, investidor de empresas de tecnologia e consultor pessoal de Zuckerberg por vários anos. Em um post publicado na revista Washington Monthly, McNamee diz que, em 2016, já havia alertado o fundador da rede social para o uso indevido que estava sendo feito do Facebook com a publicação de informações errôneas. Sua última conversa foi em 2017, quando já existiam evidências, confirmadas mais tarde, de que hackers russos haviam criado contas falsas para tentar influenciar a opinião pública em favor do então candidato republicano Donald Trump. Seus alertas não foram levados em consideração e Zuckerberg respondeu que o Facebook não era um meio de comunicação nem era responsável pelas ações de terceiros. McNamee decidiu que nunca mais voltaria.

    O Center for Humane Technology é uma aliança sem precedentes de ex-funcionários das maiores empresas de tecnologia. A Harris e McNamee se juntaram Justin Rosenstein, criador do botão like no Facebook; Lynn Fox, ex-gerente de comunicação da Apple e do Google, e Sandy Parakilas, diretor de operações no departamento de privacidade do Facebook entre 2011 e 2012.
    “É muito complicado fazer as pessoas entenderem por que a tecnologia gera danos”, diz Lynn Fox por telefone de San Francisco. “A falta de controle sobre as redes sociais tem consequências graves, como o aumento de casos de depressão entre adolescentes e a disseminação de transtornos alimentares”, acrescenta Fox, que trabalha na indústria há mais de 25 anos. Nos últimos meses, eles se reuniram com o Google, a Apple e o Facebook para mostrar alguns dos documentos em que estão trabalhando, como um guia ético para desenvolvedores que incluirá dados estatísticos sobre os distúrbios de saúde causados pelo vício em tecnologia e alternativas para o design dos produtos.
    Quanto ao Facebook, o grupo denuncia que o algoritmo é projetado para maximizar a atenção dos usuários e as horas que dedicam à plataforma, tempo que está diretamente ligado aos benefícios que a tecnológica obtém com publicidade. “Eles analisam os dados dos usuários e os usam para prever o que os fará reagir de forma mais intensa. Os algoritmos privilegiam mensagens negativas: o medo e o ódio são mais viciantes”, critica McNamee.
    Sandy Parakilas, ex-chefe de operações do Facebook, identificou o problema fundamental da rede social. “O modelo de negócios é baseado no crescimento do número de usuários e nas conexões e interações entre eles a fim de aumentar seu banco de dados”, diz por telefone de San Francisco. Ele acredita que, a exemplo de outras empresas de tecnologia como a Microsoft, o Facebook poderia comercializar seu produto e não basear seu faturamento em publicidade. “O Microsoft Word é uma ferramenta pela qual você paga; ninguém está vendendo sua atenção a terceiros, que é o que o Facebook faz”, diz Parakilas. “Para oferecer uma plataforma que atenda às necessidades dos usuários, eles teriam que abrir mão de parte da renda, ser um pouco menos lucrativos, mas não vão fazer isso.”
    Parakilas critica a escassez de recursos destinados ao departamento em que trabalhou por mais de um ano no Facebook, encarregado de garantir que a privacidade dos usuários não fosse violada com a inserção de anúncios na plataforma. “Percebi que proteger usuários nunca seria uma das prioridades da empresa; eles estão focados no crescimento econômico e estudando fórmulas para atrair sua atenção.”
    O efeito da tecnologia nos jovens tem estado no centro do debate nos EUA nos últimos meses. Em janeiro deste ano, dois grandes investidores de Wall Street pediram que a Apple estudasse os efeitos de seus produtos e projetasse ferramentas mais simples para controle dos pais sobre iPhones e iPads, a fim de limitar o consumo que as crianças fazem desses dispositivos. Em junho, especialistas em pediatria e saúde mental solicitaram que o Facebook desative um serviço de mensagens que a empresa ativou nos EUA para crianças a partir de seis anos.
    Algumas empresas do setor já reconhecem a magnitude do problema. O Google anunciou em maio em sua conferência anual de desenvolvedores I/O o lançamento da plataforma Digital Wellbeing (bem-estar digital), que inclui novos recursos no Android destinados a ajudar os usuários a controlar o tempo gasto em diferentes aplicativos e ativar alertas para fazer pausas. Depois de reconhecer que 80% dos pais nos EUA estão preocupados com o consumo que seus filhos fazem da tecnologia —resultado de suas pesquisas—, a empresa reforçou o aplicativo Family Link, que permite que as famílias gerenciem os apps usados pelos filhos, monitorem o tempo que passam na frente da tela ou bloqueiem seu dispositivo remotamente.
    A Apple anunciou em junho que ainda este ano vai lançar um novo aplicativo, chamado Screen Time (tempo de tela), que permitirá aos usuários saber quanto tempo dedicam a cada aplicativo, quantas notificações recebem de cada um deles, quantas vezes por dia consultam o celular e acessar um relatório de seus hábitos de uso em comparação com os da média. A nova ferramenta também permitirá que os pais acessem os padrões de comportamento de seus filhos e estabeleçam limites em seus dispositivos móveis.
    A pressão do Center for Humane Technology se estende ao plano legislativo. Em Massachusetts, fizeram uma parceria com o senador democrata Ed Markey para propor ao Congresso que o Instituto Nacional de Saúde Infantil e Desenvolvimento Humano examine o papel e o impacto dos dispositivos eletrônicos no desenvolvimento das crianças. Na Califórnia, juntamente com o senador democrata Bob Hertzberg, vão propor a criação de uma plataforma que identifique os bots (contas para divulgação em massa automatizada).


    sexta-feira, 17 de agosto de 2018

    30 anos de comunicação móvel, o que vem a seguir?

    Cinco principais metas do 5G na opinião da GSMA. 


    As redes de comunicação móvel têm contribuído ativamente para a transformação da sociedade. Essa evolução ocorre desde os anos 1990, com a popularização das tecnologias de segunda geração (2G), como CDMA, TDMA e GSM. Na época, o principal serviço das operadoras era comunicação por voz aos usuários, enquanto mensagens de texto (SMS) e caixa postal eram considerados serviços avançados ou de valor agregado (SVA).
    Com a chegada dos anos 2000 e das tecnologias de terceira geração (3G), houve um aumento significativo na velocidade de transmissão de dados. O uso de internet móvel começou a crescer e muitos outros serviços e aplicações para celulares foram criados, como correio eletrônico, navegação web, agenda eletrônica e câmeras fotográficas. Com o tempo, a capacidade de processamento dos telefones - e suas telas - aumentaram, surgindo os smartphones.
    Evolução dos telefones móveis

    A partir de 2010, é possível ver a crescente procura por serviços simétricos com alta demanda de banda, como vídeo chamadas, compartilhamento de conteúdo e serviços de streaming de vídeo. O suporte a eles é o principal requisito para as tecnologias de quarta geração (4G), que oferecem alta taxa de transmissão de dados (<100Mbps), simetria entre download e upload, baixa latência e alta capacidade de usuários. Atualmente, as redes 4G das operadoras são totalmente capazes de suportar o quadruple play (voz, vídeo, Internet e mobilidade) com qualidade.
    Segundo a GSMA, associação global de operadoras, a quantidade de usuários de redes móveis (excluindo M2M) alcançou o número de 7,7 bilhões em 2017. Atualmente, existem 7,6 bilhões de pessoas no mundo, das quais 3,2 bilhões têm acesso à internet móvel – ou seja, muitas já possuem mais de um terminal móvel ou utilizam mais de uma operadora. Além disso, cada vez mais dispositivos como sensores, atuadores e reguladores são capazes de se comunicar com a Internet para obter ou enviar dados, a chamada internet das coisas (IoT).
    Apesar do enorme potencial da IoT, ainda existem inúmeros desafios para algumas aplicações. Uma delas, que depende fortemente das operadoras, é viabilizar comunicações de missão crítica, aquelas que devem ser priorizadas dentro da rede e entregues no menor tempo possível. Além disso, comunicações em sistemas de transportes inteligentes (ITS), como entre veículos (V2V), entre veículos e infraestrutura (V2I), entre veículos e pedestres (V2P) ou entre veículos e redes (V2N), também estão inseridas neste contexto.
    Para suportar esses e outros cenários, a arquitetura de telecomunicações está evoluindo para sua próxima geração, a chamada 5G. Para a GSMA, de forma resumida, a nova geração possui cinco principais metas:
    1. Prover conectividade sem limites: as redes 5G irão co-existir com redes 4G e outras tecnologias alternativas, como o WiFi, de forma a prover cobertura, velocidade, confiabilidade e segurança no acesso de banda larga e suporte à infinidade de casos de uso que irão surgir;
    2. Prover redes inovadoras e otimizadas economicamente: todos os stakeholders estarão atentos ao custo/benefício das redes implementadas, que serão construídas de forma independente ou compartilhada por meio de parcerias. As futuras redes serão compostas por uma combinação de uma tecnologia principal com uma série de tecnologias complementares e irão utilizar espectro de frequências licenciadas e não licenciadas em diferentes bandas;
    3. Acelerar a transformação digital nas diferentes verticais de indústria: as operadoras irão prover redes e plataformas que permitirão a digitalização e a automatização de práticas e processos em diferentes segmentos;
    4.Transformação da experiência do acesso de banda larga móvel: as redes 5G irão prover velocidades de até 1 gigabyte por segundo (Gbps) e menos de 10ms de latência, permitindo o uso de aplicações e serviços avançados;
    5. Suporte a novos casos de uso de IoT e serviços de comunicação de missão crítica: as redes 5G irão suportar a implementação massiva de internet das coisas em diversos cenários e uma plataforma confiável para adoção de inúmeros serviços de comunicação de missão crítica.
    A expectativa é que a adoção das redes 5G aconteça a partir de 2020. Porém, para oferecer conectividade sem limites, as operadoras deverão implementar com agilidade o core de rede 5G de forma a coordenar o ecossistema de redes multiacesso e heterogêneas, em três diferentes cenários: indoor, outdoor em áreas metropolitanas densas e outdoor em áreas com baixo interesse econômico. Explico um pouco melhor a diferença entre cada uma delas abaixo:   
    a. Indoor: neste cenário, a utilização de small cells será crucial para alcançar a capacidade necessária para atender a todos os usuários e dispositivos. Uma mescla de tecnologias - 4G, 5G, WiFi, fibra óptica, entre outras - será utilizada para compor o ecossistema neste ambiente; 
    b. Outdoor em áreas metropolitanas densas: além das tradicionais macro cells, as micro e small cell serão utilizadas para complementar e aumentar a capacidade em ambientes abertos, como estações de metrô, estádios de futebol e shopping centers;
    c. Outdoor em áreas com baixo interesse econômico: serão utilizadas tecnologias de frequências mais baixas para melhorar a cobertura, como satélites de órbita baixa e redes baseadas em tecnologias não licenciadas, como a LORA (LPWA – Low Power Wide Area)
    A construção de um novo core e RAN 5G se traduz na necessidade de mais investimentos por parte das operadoras, que no Brasil ainda estão investindo em 3G, 4G e 4.5G, além do phase out da rede 2G.
    Diante desse cenário, é necessário buscar novos caminhos para melhorar o retorno do investimento. Entre eles, a virtualização da infraestrutura, tema cada vez mais presente nas empresas do setor devido à redução do custo de aquisição de hardware e otimização de uso das redes. A aceleração do desligamento das redes 2G e redistribuição das tecnologias mais recentes (4G e 4.5G) nos espectros disponíveis também ajudará a melhorar o uso das redes das operadoras.
    Além disso, a massificação da utilização de small cells viabilizará o aumento da capacidade da rede atual e futura em ambientes indoor e outdoor. Já a criação de redes virtuais com SLAs bem definidos permitirá às operadoras ofertar às empresas, de forma transparente, a conectividade necessária para diferentes setores da economia.
    No entanto, os impactos do 5G não ficam restritos aos aspectos tecnológicos. Será necessário adotar novos modelos de negócios e tarifários além dos tradicionais baseados no consumo - por tempo, volume de dados ou conteúdo -, o que pode inviabilizar a adoção de alguns casos de uso, especialmente de IoT.
    Para tornar isso real o quanto antes e alavancar o crescimento do setor, a modernização da regulamentação vigente é fundamental. Em paralelo, as operadoras farão novas parcerias de negócios e tecnológicas com empresas com visão de diferentes verticais de negócios e acesso a tecnologias complementares. Só assim será possível viabilizar novos modelos de negócios e construir um ecossistema que até então não era alcançado por elas, possibilitando a entrega de uma tecnologia de qualidade e serviços complementares aos clientes.

    Fonte: Christian Maki, coordenador de tecnologia e redes móveis da Logicalis para CIO