BDE5.2を利用してParadoxデータを作成していますが、大容量(50,000レコード、20メガ)位になると二次インデックスが壊れる事があります。
修正プログラムを作って、対応していますが、こんなもんなんですか?
何方か教えて下さい。
>>二次インデックスが壊れる事があります。
DBが壊れるのではなく、二次インデックスが壊れるのですか?
ちなみに私もParadoを結構使っていますが100Mで100万レコード位
問題無く動いてますが...。
>こんなもんなんですか?
もちろんParadoxが犯人ではありません。BDEが犯人です。当方も
複雑なindexファイルだとよく壊れています。キャッシュだとかいろい
ろ検索したことを試しましたが、結局解決に至っておりません。
>>なつお 2005/07/16(土) 22:40:06
>>複雑なindexファイルだとよく壊れています。
今後の参考にさせていただきたいのですが、
どのようなindexファイルだと
壊れやすいのか教えて頂けないでしょうか。
FireBirdなんかに乗り換えたらどうですか?
Paradoxを使う場合、BDE環境設定でLOCAL SHAREをTREUにしないと壊れる、と言うTipsを見つけてそのように設定しましたが、扱うデータ量が少ないためかそもそも壊れないので検証できていません…。
BDEのBLOCK SIZEの値を大きくしてみたらどうですか?
ついでにDBの項目名やインデックス名を半角文字にしてみては?
皆さん、ご意見、有難う御座いました。
Kennyさんの、ご意見をテストしてみたいと思います。
峠のおじさん、ご意見有難うございます。
BDEのBLOCK SIZEの値を大きくしてみると、多少は改善されますがデーター量が増えるとエラーは、発生します。
BDE環境設定でLOCAL SHAREをTREUに100万レコード、300メガほどのデーターでファイルを作りました。結果はの二次インデックスに障害が発生しました。 結論、ファイルはあまり大きくしない。
ツイート | ![]() |