zoukankan
html css js c++ java
64位ubuntu下装32位软件
本帖最后由 wuy069 于 2013-10-25 12:28 编辑
很多软件只有32位的,有的依赖32位库还挺严重的;从ubuntu 13.10已经废弃了ia32-libs,但可以使用多架构,安装软件或包apt-get install program:i386。有的还是觉得烦,想一步到位安装所有的以前的ia32-libs,可以使用以下方法:
sudo -i
cd /etc/apt/sources.list.d
echo "deb
http://archive.ubuntu.com/ubuntu/
raring main restricted universe multiverse" >ia32-libs-raring.list
apt-get update
apt-get install ia32-libs
复制代码
PS:这种方法肯定能安装上ia32-libs,但由于添加的是13.04的源,所以有没有混淆暂时不清楚,网上也有很多用新立德软件包管理器这样做;够狠,你就这么干。也可以这么安装了ia32-libs后,把/etc/apt/sources.list.d目录下的ia32-libs-raring.list删掉,然后再sudo apt-get update
查看全文
相关阅读:
Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect
spark内核揭秘-14-Spark性能优化的10大问题及其解决方案
spark内核揭秘-13-Worker中Executor启动过程源码分析
spark内核揭秘-12-AppClient注册Masters
spark内核揭秘-11-Driver中AppClient源码分析
spark内核揭秘-10-RDD源码分析
spark内核揭秘-09-RDD的count操作 触发Job全生命周期-02
spark内核揭秘-09-RDD的count操作 触发Job全生命周期-01
spark内核揭秘-08-spark的Web监控页面
Go每日一题(3)
原文地址:https://www.cnblogs.com/easonliu/p/3725215.html
最新文章
个人微信公众号,每天推送一篇高质量文章
非mapreduce生成Hfile,然后导入hbase当中
HBase 系统架构
Spark 性能相关参数配置详解-任务调度篇
整合Kafka到Spark Streaming——代码示例和挑战
spark SQL编程动手实战-01
zookeeper伪分布安装和使用
Spark API编程动手实战-08-基于IDEA使用Spark API开发Spark程序-02
Spark API编程动手实战-08-基于IDEA使用Spark API开发Spark程序-01
spark1.2.0版本搭建伪分布式环境
热门文章
hadoop2.6.0版本搭建伪分布式环境
Spark API编程动手实战-07-join操作深入实战
centos修改主机名整理(勿喷)
clover分布式任务调度系统
Spark API编程动手实战-06-对搜狗日志文件深入实战操作
Linux下解压命令大全 解压缩 tar bz2 zip tar.gz gz
Spark API编程动手实战-05-spark文件操作和debug
Spark API编程动手实战-04-以在Spark 1.2版本实现对union、groupByKey、join、reduce、lookup等操作实践
Spark API编程动手实战-03-以在Spark 1.2版本实现对Job输出结果进行排序
Spark API编程动手实战-02-以集群模式进行Spark API实战textFile、cache、count
Copyright © 2011-2022 走看看